sábado, 21 de marzo de 2009

sistemas electricos

caracteristicas circuitos serie y paralelo

lunes, 16 de febrero de 2009

Linux

GNU/Linux
De Wikipedia, la enciclopedia libre
(Redirigido desde Linux)
Saltar a navegación, búsqueda
Este artículo trata sobre el sistema operativo GNU/Linux. Para otros usos de este término, véase Linux (desambiguación).
'GNU/Linux o Linux'
Imagen que hace analogía con el nombre del Sistema Operativo
Desarrollador:
Varios
Modelo de desarrollo:
Software Libre
Núcleo:
Linux
Tipo de núcleo:
Monolítico
Licencia:
GPL y otras
Estado actual:
En desarrollo

Escuche este artículo (info)Descárgalo
Este archivo de audio fue creado de una revisión del artículo y no refleja las subsecuentes ediciones. (Ayuda)
Más artículos grabados...
Linux es un término genérico para referirse a sistemas operativos similares a Unix basados en el núcleo de Linux. Su desarrollo es uno de los ejemplos más prominentes de software libre; normalmente todo el código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la Licencia Pública General de GNU[1] (GNU GPL) y otras licencias libres.
Las variantes de estos sistemas se denominan distribuciones de Linux y su objetivo es ofrecer una edición que cumpla con las necesidades de determinado grupo de usuarios. Algunas distribuciones de Linux son especialmente conocidas por su uso en servidores y supercomputadores.[2] No obstante, es posible instalar Linux en una amplia variedad de hardware como computadores de escritorio y portátiles, computadores de bolsillo, teléfonos celulares, dispositivos empotrados, videoconsolas y otros. Para saber más sobre las arquitecturas soportadas, ver el artículo Portabilidad del núcleo Linux y arquitecturas soportadas.
Historia [editar]
Artículo principal: Historia de Linux

Linus Torvalds, creador del núcleo Linux
En 1991 Linus Torvalds empezó a trabajar en un reemplazo no comercial para MINIX[6] que más adelante acabaría siendo Linux. http://www.gnu.org/gnu/initial-announcement.es.html La historia de Linux está fuertemente vinculada a la del proyecto GNU. El proyecto GNU, iniciado en 1983 por Richard Stallman,[7] tiene como objetivo el desarrollo de un sistema Unix completo compuesto enteramente de software libre. Cuando la primera versión de Linux fue liberada en 1991, el proyecto GNU ya había producido varios de los componentes del sistema operativo, incluyendo un intérprete de comandos, una biblioteca C y un compilador, pero aún no contaba con el núcleo que permitiera completar el sistema operativo.
Entonces, el núcleo creado por Linus Torvalds, quien se encontraba por entonces estudiando en la Universidad de Helsinki, llenó el "hueco" final que el sistema operativo GNU necesitaba
Desarrollo [editar]

Distribuciones GNU/Linux [editar]
Artículo principal: Distribución GNU/Linux

Sharp Zaurus, un computador de bolsillo con Linux.
Una distribución es una variante del sistema Linux que se enfoca a satisfacer las necesidades de un grupo especifico de usuarios. De este modo hay distribuciones para hogares, empresas y servidores. Algunas incorporan programas comerciales (como Mandriva PowerPack) o solamente software libre (como Debian).
Las distribuciones son ensambladas por individuos, empresas u otros organismos. Cada distribución puede incluir cualquier número de software adicional, incluyendo software que facilite la instalación del sistema. La base del software incluido con cada distribución incluye el núcleo Linux y las herramientas GNU, al que suelen añadirse también varios paquetes de software.
Las herramientas que suelen incluirse en la distribución de este sistema operativo se obtienen de diversas fuentes, incluyendo de manera importante proyectos de código abierto o libre, como el GNU y el BSD o el KDE. Debido a que las herramientas de software libre que en primera instancia volvieron funcional al núcleo de Linux provienen del proyecto GNU que desde 1983 había liberado software que pudo ser usado en el proyecto de Linux de 1991, Richard Stallman (fundador del proyecto GNU) pide a los usuarios que se refieran a dicho sistema como GNU/Linux. A pesar de esto, la mayoría de los usuarios continúan llamando al sistema simplemente "Linux" y las razones expuestas por Richard Stallman son eterno motivo de controversia. La mayoría de los sistemas "Linux" incluyen también herramientas procedentes de BSD y de muchos otros proyectos como Mozilla, Perl, Ruby, Python, PostgreSQL, MySQL, Xorg, casi todas con licencia GPL o compatibles con ésta (LGPL, MPL) otro aporte fundamental del proyecto GNU.
Usualmente se utiliza la plataforma XFree86 o la X.Org Server para sostener interfaces gráficas.

viernes, 6 de febrero de 2009

Nanotecnologia Informatica

Nanotecnología
Nanociencia



Nanotecnología e Informática

--------------------------------------------------------------------------------
Nuevos avances en nanotecnología pone a tiro a las supercomputadoras del mañana. Dentro de unos años, las computadoras serán bastante diferentes de las actuales. Los avances en el campo de la nanotecnología harán que las computadoras dejen de utilizar el silicio como sistema para integrar los transistores que la componen y empiecen a manejarse con lo que se llama mecánica cuántica, lo que hará que utilicen transistores a escala atómica.

Aproximadamente para el año 2010, el tamaño de los transistores o chips llegará a límites de integración con la tecnología actual, y ya no se podrán empaquetar más transistores en un área de silicio, entonces se entrará al nivel atómico o lo que se conoce como mecánica cuántica.

Las computadoras convencionales trabajan simbolizando datos como series de unos y ceros –dígitos binarios conocidos como bits. El código binario resultante es conducido a través de transistores, switches que pueden encenderse o prenderse para simbolizar un uno o un cero.

Las computadoras cuánticas, sin embargo, utilizan un fenómeno físico conocido como “superposición”, donde objetos de tamaño infinitesimal como electrones o átomos pueden existir en dos o más lugares al mismo tiempo, o girar en direcciones opuestas al mismo tiempo. Esto significa que las computadoras creadas con procesadores superpuestos puedan utilizar bits cuánticos –llamados qubits- que pueden existir en los estados de encendido y apagado simultáneamente.

De esta manera, estas computadoras cuánticas pueden calcular cada combinación de encendido y apagado al mismo tiempo, lo que las haría muchísimo más veloces que los actuales procesadores de datos a la hora de resolver ciertos problemas complejos de cálculos matemáticos. La investigación de la computación cuántica está ganando terreno rápidamente en laboratorios de investigación militares, de inteligencia y universidades alrededor del planeta. Entre otros, están involucrados gigantes como AT&T, IBM, Hewlett-Packard, Lucent and Microsoft .


En electrónica, miniaturización es sinónimo de éxito. Reducir el tamaño de los circuitos integrados implica una respuesta más rápida y un menor consumo de energía. Y en esta escalada hacia lo extremadamente pequeño, la nanotecnología se convierte en un aliado imprescindible.


Informática a nanoescala

Hasta ahora nos habíamos habituado a que la Ley de Moore, que afirma que la capacidad de nuestros ordenadores se dobla cada 18 meses, se cumpliera a rajatabla. Pero la realidad muestra que, utilizando la tecnología convencional, que utiliza los transistores como pieza básica, este desarrollo alcanzará pronto sus límites. La alternativa para que el progreso no se detenga es crear los dispositivos de almacenamiento a escala molecular, nuevos métodos de cálculo, interruptores moleculares y cables de tubos de carbono estirados. En definitiva, lo que se conoce como ordenadores cuánticos.

El primer paso hacia estos dispositivos se producía a finales de agosto de 2001, cuando los investigadores de IBM crearon un circuito capaz de ejecutar cálculos lógicos simples mediante un nanotubo de carbono autoensamblado. En estos momentos es la empresa Hewlett-Packard la que se encuentra más cerca de crear una tecnología capaz de sustituir a los actuales procesadores. Hace tan solo unos meses daban un paso de gigante al lograr que una nueva técnica basada en sistemas usados actualmente en matemáticas, criptografía y telecomunicaciones les permita crear dispositivos con equipos mil veces más económicos que los actuales. La compañía promete que habrá chips de sólo 32 nanómetros en el mercado dentro de 8 años.

Otras empresas como IBM o Intel le siguen de cerca. En concreto, en el marco de la First Internacional Nanotechnology Conference celebrada el pasado mes de junio, Intel desvelaba por primera vez públicamente sus planes para el desarrollo de chips de tamaño inferior a 10 nanómetros, combinando el silicio con otras tecnologías que están aún en sus primeras fases de investigación.

Tan importante como la velocidad de procesamiento es la capacidad de almacenamiento. Eso lo sabe bien Nantero, una empresa de nanotecnología que trabaja en el desarrollo de la NRAM. Se trata de un chip de memoria de acceso aleatorio no volátil y basada en nanotubos. Sus creadores aseguran que podría reemplazar a las actuales memorias SRAM, DRAM y flash, convirtiéndose en la memoria universal para teléfonos móviles, reproductores MP3, cámaras digitales y PDAs.

Por su parte, investigadores de la Texas A&M University y del Rensselaer Polytechnic Institute han diseñado un tipo memoria flash de nanotubo que tiene una capacidad potencial de 40 gigas por centímetro cuadrado y 1000 terabits por centímetro cúbico. Y la compañía Philips trabaja en una nueva tecnología de almacenamiento óptico que permite el almacenaje de hasta 150 gigabytes de datos en dos capas sobre un medio óptico similar a los actuales DVDs.

Computadoras casi invisibles

La nanotecnología será un salto importante en la reducción de los componentes, y ya hay avances, pero muchos de estos adelantos se consideran secretos de las empresas que los están desarrollando.

El tamaño de las computadoras del futuro también podría sorprender, ya que podría ser la quincuagésima parte (cincuenta veces menor) de una computadora actual de semiconductores que contuviera similar número de elementos lógicos. La reducción del tamaño desemboca en dispositivos más veloces; las computadoras podrán operar a velocidades mil veces mayores que las actuales.

Algunos estudios pronostican que la técnica híbrida, que conjuga microcircuitos semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica a las aplicaciones comerciales. Las pantallas de cristal líquido ofrecen un espléndido ejemplo del sistema híbrido que ha triunfado. Casi todas las computadoras portátiles utilizan pantallas de cristal líquido, que combinan dispositivos semiconductores con moléculas orgánicas para controlar la intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se podrían utilizar con vistas a su utilización en componentes informáticos.

Redes Inalambricas

Redes inalámbricas de nueva generación
De Wikipedia, la enciclopedia libre
(Redirigido desde Redes inalambricas de nueva generacion)
Saltar a navegación, búsqueda
Las redes inalámbricas de nueva generación son redes experimentales, como lo era Internet hace 10 u 12 años, utilizan nuevas tecnologías, son el banco de pruebas de nuevos protocolos de comunicaciones y nuevas aplicaciones y además en ellas se desarrollan los protocolos de la Internet del futuro.


Las redes de nueva generación [editar]Pretendieron inicialmente transmitir a mayor velocidad. Hoy buscan transmitir información con Calidad de Servicio (QoS).


Qué es QoS [editar]Inicialmente el objetivo de las redes era tener la capacidad de enviar información entre dos puntos.
Se hacía el “mejor esfuerzo” para que la información llegara a cierta velocidad y en cierto tiempo.
Hoy se requiere que la información llegue:


A una cierta tasa de bits – Throughput.
En un tiempo determinado – demora.
Con una variación determinada – Jitter.
Con cierta pérdida de paquetes.
Para poder transmitir, datos, voz, imágenes, video etc.

Los libros electrónicos [editar]Son otro factor de movilidad.
Se pasó de Gutenberg a los bits en 400 años.
Requieren aún de tecnología para tener la flexibilidad y portabilidad de un libro.

Redes Personales (PAN) IEEE 802.15 [editar]Dos tecnologías disponibles:

Bluetooth.
UWB (Banda Ultra-Ancha).

802.15 [editar]Desarrollada inicialmente por Ericsson para accesos a corta distancia.
Promete eliminar los cables de ratones, computadores, teclados, teléfonos, cámaras digitales y cualquier dispositivo móvil.
Permite utilizar múltiples medios, RF, celular, punto a punto, convencional.. Etc.

Bluetooth [editar]Wireless Personal Area Network (picoceldas).
Bluetooth - 802.15.
Banda de 2,4 Ghz.
Velocidades de 1 a 20 Mbs.
Alcance decenas de metros (10 a 100 m).
significdo= diente azul.


Banda Ultra-Ancha (UWB) [editar]Es una banda de 500 Mhz en el espectro entre 3,1 y 10,6 Ghz.
Se transmite directamente sin modulación.
Alcances de ~10 m.
Se trabaja en la normalización 802.15.3a.
Los partidarios dicen que volverá obsoleta a Bluetooth.

Redes Inalámbricas de Área Local (WLAN) [editar]Surgimiento de puntos calientes (Hot spots) de acceso gratuito o pago

Hoteles.
Bibliotecas.
Cafés.
Universidades.
Aeropuertos, Metros, etc.
Ciudades con acceso inalámbrico

WLAN (wi-fi) [editar]Wireless Local Area Networks
Tres estándares
802.11a 6 a 54 Mbps banda de 5 GHz
802.11b 11 Mbps banda de 2.4 GHz
802.11g a 54 Mbps banda de 2.4 GHz
802.11n a 300 mbps banda de 2.4 GHz o 2.2 GHz
Alcance 75 m en interior y 300 m en exteriores
En caso de 802.11n alcance de 700 m en exteriores.

Redes Metropolitanas IEEE 802.16 (WiMax) [editar]Redes de gran ancho de banda para realizar conexiones punto-multipunto.
Estandarización de una tecnología llamada LMDS (Local Multipoint Distribution System) que es usada en Colombia.
Esfuerzo por estandarizar también MMDS (2,3 Ghz).
802.16 usa dos bandas de frecuencia.
10-66 Ghz licenciada.
2–11 GHz licenciada.

W-MAN (2) [editar]Relación de transmisión de datos de 120 Mbps y superiores.
Usando canales entre 25 y 28 MHz en la banda entre 10 y 66 GHz.
Suministra una última milla sin cobre a alta velocidad.
En Colombia hay licencias para usar tecnologías similares en la banda de 29 a 31 GHz (LMDS).
En la jerga 802.16 se conoce como WiMax.

En Europa comenzó como Hiperman.

Tecnologías Celulares de nueva generación [editar]Generación 2.5 (GSM y CDMA1x).
Datos hasta 384 Kbps.
Video conferencia.
Internet inalámbrico (WAP, i- Mode).

La próxima generación 4G [editar]Transmisión de alta velocidad (50-100 Mbps).
Soporte de IPv6.
Uso de banda de microondas de 3 a 6 GHz.
Costos reducidos del sistema 1/10 de 3G.

Redes Inalambricas

Redes inalámbricas de nueva generación
De Wikipedia, la enciclopedia libre
(Redirigido desde Redes inalambricas de nueva generacion)
Saltar a navegación, búsqueda
Las redes inalámbricas de nueva generación son redes experimentales, como lo era Internet hace 10 u 12 años, utilizan nuevas tecnologías, son el banco de pruebas de nuevos protocolos de comunicaciones y nuevas aplicaciones y además en ellas se desarrollan los protocolos de la Internet del futuro.


Las redes de nueva generación [editar]Pretendieron inicialmente transmitir a mayor velocidad. Hoy buscan transmitir información con Calidad de Servicio (QoS).


Qué es QoS [editar]Inicialmente el objetivo de las redes era tener la capacidad de enviar información entre dos puntos.
Se hacía el “mejor esfuerzo” para que la información llegara a cierta velocidad y en cierto tiempo.
Hoy se requiere que la información llegue:


A una cierta tasa de bits – Throughput.
En un tiempo determinado – demora.
Con una variación determinada – Jitter.
Con cierta pérdida de paquetes.
Para poder transmitir, datos, voz, imágenes, video etc.

Los libros electrónicos [editar]Son otro factor de movilidad.
Se pasó de Gutenberg a los bits en 400 años.
Requieren aún de tecnología para tener la flexibilidad y portabilidad de un libro.

Redes Personales (PAN) IEEE 802.15 [editar]Dos tecnologías disponibles:

Bluetooth.
UWB (Banda Ultra-Ancha).

802.15 [editar]Desarrollada inicialmente por Ericsson para accesos a corta distancia.
Promete eliminar los cables de ratones, computadores, teclados, teléfonos, cámaras digitales y cualquier dispositivo móvil.
Permite utilizar múltiples medios, RF, celular, punto a punto, convencional.. Etc.

Bluetooth [editar]Wireless Personal Area Network (picoceldas).
Bluetooth - 802.15.
Banda de 2,4 Ghz.
Velocidades de 1 a 20 Mbs.
Alcance decenas de metros (10 a 100 m).
significdo= diente azul.


Banda Ultra-Ancha (UWB) [editar]Es una banda de 500 Mhz en el espectro entre 3,1 y 10,6 Ghz.
Se transmite directamente sin modulación.
Alcances de ~10 m.
Se trabaja en la normalización 802.15.3a.
Los partidarios dicen que volverá obsoleta a Bluetooth.

Redes Inalámbricas de Área Local (WLAN) [editar]Surgimiento de puntos calientes (Hot spots) de acceso gratuito o pago

Hoteles.
Bibliotecas.
Cafés.
Universidades.
Aeropuertos, Metros, etc.
Ciudades con acceso inalámbrico

WLAN (wi-fi) [editar]Wireless Local Area Networks
Tres estándares
802.11a 6 a 54 Mbps banda de 5 GHz
802.11b 11 Mbps banda de 2.4 GHz
802.11g a 54 Mbps banda de 2.4 GHz
802.11n a 300 mbps banda de 2.4 GHz o 2.2 GHz
Alcance 75 m en interior y 300 m en exteriores
En caso de 802.11n alcance de 700 m en exteriores.

Redes Metropolitanas IEEE 802.16 (WiMax) [editar]Redes de gran ancho de banda para realizar conexiones punto-multipunto.
Estandarización de una tecnología llamada LMDS (Local Multipoint Distribution System) que es usada en Colombia.
Esfuerzo por estandarizar también MMDS (2,3 Ghz).
802.16 usa dos bandas de frecuencia.
10-66 Ghz licenciada.
2–11 GHz licenciada.

W-MAN (2) [editar]Relación de transmisión de datos de 120 Mbps y superiores.
Usando canales entre 25 y 28 MHz en la banda entre 10 y 66 GHz.
Suministra una última milla sin cobre a alta velocidad.
En Colombia hay licencias para usar tecnologías similares en la banda de 29 a 31 GHz (LMDS).
En la jerga 802.16 se conoce como WiMax.

En Europa comenzó como Hiperman.

Tecnologías Celulares de nueva generación [editar]Generación 2.5 (GSM y CDMA1x).
Datos hasta 384 Kbps.
Video conferencia.
Internet inalámbrico (WAP, i- Mode).

La próxima generación 4G [editar]Transmisión de alta velocidad (50-100 Mbps).
Soporte de IPv6.
Uso de banda de microondas de 3 a 6 GHz.
Costos reducidos del sistema 1/10 de 3G.

WI-FI

Wi-Fi
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11.

Historia [editar]Nokia y Symbol Technologies crearon en 1999 una asociación conocida como WECA (Wireless Ethernet Compatibility Alliance, Alianza de Compatibilidad Ethernet Inalámbrica). Esta asociación pasó a denominarse Wi-Fi Alliance en 2003 . El objetivo de la misma fue crear una marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos.

De esta forma en abril de 2000 WECA certifica la interoperatibilidad de equipos según la norma IEEE 802.11b bajo la marca Wi-Fi. Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos.

En el año 2002 la asociación WECA estaba formada ya por casi 150 miembros en su totalidad.

La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas físicas y MAC de la norma 802.3 (Ethernet). Esto quiere decir que en lo único que se diferencia una red Wi-Fi de una red Ethernet es en cómo se transmiten las tramas o paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es completamente compatible con todos los servicios de las redes locales (LAN) de cable 802.3 (Ethernet).





Estándares existentes [editar]Artículo principal: IEEE 802.11
Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado. Son los siguientes:

Los estándares IEEE 802.11b e IEEE 802.11g disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps y 54 Mbps, respectivamente.
En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).
Un primer borrador del estándar IEEE 802.11n trabaja de forma simultanea a 2.4GHz y a 5,4Ghz y permite alcanzar velocidades de 300Mbps, mediante la utilizacion sumultanea del 50% de los canales disponibles, en las dos bandas libres. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N.
Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con Wi-Fi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad.


Seguridad y fiabilidad [editar]Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debida a la masificación de usuarios, esto afecta especialmente en la conexiones de larga distancia (mayor de 100 metros), en realidad Wifi esta diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance esta expuesto a un excesivo riesgo de inteferencias.

Un muy elevado porcentaje de redes son instaladas sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o muy vulnerables a los crackers), sin proteger la información que por ellas circulan.

Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son:

Utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP y el WPA, que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos
WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire.
WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como de dígitos alfanuméricos, sin restricción de longitud
IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios.
Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados.
Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios.
El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son.
Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.


Dispositivos [editar]Existen varios dispositivos que permiten interconectar elementos Wi-Fi, de forma que puedan interactuar entre sí. Entre ellos destacan los routers, puntos de acceso, para la emisión de la señal Wi-Fi y las tarjetas receptoras para conectar a la computadora personal, ya sean internas (tarjetas PCI) o bien USB.

Los puntos de acceso funcionan a modo de emisor remoto, es decir, en lugares donde la señal Wi-Fi del router no tenga suficiente radio se colocan estos dispositivos, que reciben la señal bien por un cable UTP que se lleve hasta él o bien que capturan la señal débil y la amplifican (aunque para este último caso existen aparatos especializados que ofrecen un mayor rendimiento).
Los router son los que reciben la señal de la línea ofrecida por el operador de telefonía. Se encargan de todos los problemas inherentes a la recepción de la señal, incluidos el control de errores y extracción de la información, para que los diferentes niveles de red puedan trabajar. Además, el router efectúa el reparto de la señal, de forma muy eficiente.
Además de routers, hay otros dispositivos que pueden encargarse de la distribución de la señal, aunque no pueden encargarse de las tareas de recepción, como pueden ser hubs y switches. Estos dispositivos son mucho más sencillos que los routers, pero también su rendimiento en la red de área local es muy inferior
Los dispositivos de recepción abarcan tres tipos mayoritarios: tarjetas PCI, tarjetas PCMCIA y tarjetas USB:
Tarjeta USB para Wi-Fi.Las tarjetas PCI para Wi-Fi se agregan a los ordenadores de sobremesa. Hoy en día están perdiendo terreno debido a las tarjetas USB.
Las tarjetas PCMCIA son un modelo que se utilizó mucho en los primeros ordenadores portátiles, aunque están cayendo en desuso, debido a la integración de tarjeta inalámbricas internas en estos ordenadores. La mayor parte de estas tarjetas solo son capaces de llegar hasta la tecnología B de Wi-Fi, no permitiendo por tanto disfrutar de una velocidad de transmisión demasiado elevada
Las tarjetas USB para Wi-Fi son el tipo de tarjeta más común que existe y más sencillo de conectar a un pc, ya sea de sobremesa o portátil, haciendo uso de todas las ventajas que tiene la tecnología USB. Además, algunas ya ofrecen la posibilidad de utilizar la llamada tecnología PreN, que aún no esta estandarizada.
También existen impresoras, cámaras Web y otros periféricos que funcionan con la tecnología Wi-Fi, permitiendo un ahorro de mucho cableado en las instalaciones de redes.
En relación con los drivers, existen directorios de "Chipsets de adaptadores Wireless".[1]


Ventajas y desventajas [editar]Las redes Wi-Fi poseen una serie de ventajas, entre las cuales podemos destacar:

Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable.
La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Esto no ocurre, por ejemplo, en móviles.
Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son:

Una de las desventajas que tiene el sistema Wi-Fi es la pérdida de velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica ya que sigue siendo difícil para lo que representa la seguridad de una empresa estar "seguro". Uno de los puntos débiles (sino el gran punto débil) es el hecho de no poder controlar el área que la señal de la red cubre, por esto es posible que la señal exceda el perímetro del edificio y alguien desde afuera pueda visualizar la red y esto es sin lugar a dudas una mano para el posible atacante.
Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc.

Véase también [editar]
Ad hoc
De Wikipedia, la enciclopedia libre
(Redirigido desde Ad Hoc)
Saltar a navegación, búsqueda
Ad hoc es una locución latina que significa literalmente «para esto». Generalmente se refiere a una solución elaborada específicamente para un problema o fin preciso y, por tanto, no es generalizable ni utilizable para otros propósitos. Se usa pues para referirse a algo que es adecuado sólo para un determinado fin. En sentido amplio, ad hoc puede traducirse como «específico» o «específicamente».

Uso en Telecomunicaciones e Informática [editar]En redes de comunicación, dicha expresión hace referencia a una red (especialmente inalámbrica) en la que no hay un nodo central, sino que todos los ordenadores están en igualdad de condiciones. Ad hoc es el modo más sencillo para el armado de una red. Sólo se necesita contar con 2 placas o tarjetas de red inalámbricas (de la misma tecnología). Una vez instaladas en los PC se utiliza el software de configuración del fabricante para configurarlas en el modo ad-hoc, definiendo el identificador común que utilizarán (SSID). Este modo es recomendable sólo en caso de que necesitemos una comunicación entre no más de dos dispositivos. Son por ejemplo redes ad hoc las que se crean de forma espontánea, sin una infraestructura específica y funcionando en un espacio y tiempo limitados.

El término también se utiliza en informática para referirse a consultas en bases de datos ad hoc querying o ad hoc reporting. Esto implica que el sistema permite al usuario personalizar una consulta en tiempo real, en vez de estar atado a las consultas prediseñadas para informes. Generalmente las consultas ad hoc permiten a los usuarios con poca experiencia en SQL tener el mismo acceso a la información de la base de datos, para esto los sistemas que soportan ad hoc poseen GUIs para generarlas.


Bluetooth
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Se ha sugerido que Bluetooth stack sea fusionado en este artículo o sección. (Discusión).
Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales en WP:TAB/F.

Teclado bluetooth enlazado a un computador de bolsillo
Un auricular para teléfono móvil por BluetoothBluetooth es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia segura y globalmente libre (2,4 GHz.). Los principales objetivos que se pretende conseguir con esta norma son:

Facilitar las comunicaciones entre equipos móviles y fijos.
Eliminar cables y conectores entre éstos.
Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre nuestros equipos personales.
Los dispositivos que con mayor intensidad utilizan esta tecnología son los de los sectores de las telecomunicaciones y la informática personal, como PDAs, teléfonos móviles, computadoras portátiles, ordenadores personales, impresoras y cámaras digitales.


Usos y aplicaciones [editar]
Apple Mighty Mouse con tecnología BluetoothBluetooth se denomina al protocolo de comunicaciones diseñado especialmente para dispositivos de bajo consumo, con una cobertura baja y basados en transceptores de bajo coste.

Gracias a este protocolo, los dispositivos que lo implementan pueden comunicarse entre ellos cuando se encuentran dentro de su alcance. Las comunicaciones se realizan por radiofrecuencia de forma que los dispositivos no tienen por qué estar alineados, pueden incluso estar en habitaciones separadas si la potencia de transmisión lo permite.

La clasificación de los dispositivos Bluetooth como "Clase 1", "Clase 2" o "Clase 3" es únicamente una referencia de la potencia de trasmisión del dispositivo, siendo totalmente compatibles los dispositivos de una clase con los de la otra.

FON es una iniciativa empresarial de Martín Varsavsky surgida en el año 2005 con el objetivo de crear una comunidad WiFi global, que permite a sus usuarios la conexión gratuita a los puntos de acceso de otros usuarios, repartidos por todo el mundo, a la vez que brinda acceso de pago a terceros mediante un sistema en el que las ganancias se reparten a partes iguales entre la compañía y el usuario que presta su conexión. Está presente en cada vez más países de Europa, Norteamérica y Asia.

Funcionamiento [editar]Tanto para los Linus como para los Bill, el proceso de conexión es el mismo: necesitan un punto de acceso WiFi compatible con FON. Hasta el 19 de octubre de 2006 eran los router Linksys WRT54G, WRT54GS/GL y Buffalo AirStation 54g. Los que ya tienen uno de ellos tendrán que descargarse e instalar en dicho router un firmware disponible en la web de FON, que convertirá el punto de acceso en un punto de acceso FON. FON ofrece dos routers propio: la Fonera, que sólo ofrece conectividad wifi, y la fonera+, que dispone además de un puerto ethernet.


Ventajas y problemas [editar]
La foneraCaracterísticas de esta red:

Los Linus tienen la posibilidad de conectarse desde cualquier punto de acceso de otra ciudad o país.
La configuración y el uso del router es muy sencilla y está en continua mejora.
En cambio, podrían existir los siguientes problemas: FON no ofrece aún (14/12/2006) una tecnología que permita mantener una conexión entre dos puntos de acceso como ocurre por ejemplo en el caso de la telefonía móvil, debido a cómo está diseñado el firmware: no prevé ningún tipo de encaminamiento entre los diferentes puntos de acceso (tanto actualmente como en el futuro a medio o largo plazo, tal y como han confirmado sus creadores), como por ejemplo hacen las redes mesh. Esto se puede comprobar bajando el firmware oficial de la página de FON (versión modificada de los firmwares libres OpenWRT y DD-WRT, con los cuales incumplió en su momento la licencia GPL[cita requerida]) y verificando el funcionamiento interno que no hace ningún tipo de encaminamiento entre nodos, ni siquiera trata de conectarse mutuamente entre los diferentes puntos de acceso (Algo como WDS o similar).

Uno de los problemas más graves a los cuales se enfrenta actualmente la tecnología Wi-Fi en general es la seguridad. Un muy elevado porcentaje de redes se han instalado por administradores de sistemas o de redes por su simplicidad de implementación, sin tener en consideración la seguridad y por tanto han convertido sus redes en redes abiertas, sin proteger el acceso a la información que por ellas circulan. Existen varias alternativas para garantizar la seguridad de estas redes, las más comunes son la utilización de protocolos de cifrado de datos como el WEP y el WPA, proporcionados por los propios dispositivos inalámbricos, o IPsec (túneles IP) y 802.1x, proporcionados por o mediando otros dispositivos de la red de datos.

Sin embargo, el problema más grave al que se enfrenta FON actualmente son los aspectos legales. Según la legislación española (y en otros países la situación puede ser similar) se estarían cometiendo varios delitos precisamente por el aspecto lucrativo del proyecto: redistribución de conexión (Linus), incitación a la ilegalidad por parte de terceros (Bill), actuar como operador de telecomunicaciones sin pagar el correspondiente gravamen de la CMT (están registrados en la base de datos de la CMT pero no como proveedor de Internet, sino como "comunidad inalámbrica" de usuarios), etc. Todo esto ha provocado las reticencias de los usuarios más entendidos en este tipo de movimientos o en asuntos legales, que consideran este modelo un fraude o vaporware[cita requerida].

Frente a otras comunidades WiFi, como las que engloba RedLibre,[1] presenta la desventaja de que una empresa se hace con el control de la red, propone una alternativa en la que todo está bajo su control y cuyo objetivo es ganar dinero utilizando técnicas de marketing de estética revolucionaria.

Para otros, el protagonismo de Martin Varsavsky en el proyecto despierta reticencias, dado que el mismo empresario fue el fundador de "Jazztel" (una empresa proveedora de Internet, vapuleada por la Asociación de Internautas e instancias oficiales por la baja calidad de sus servicios y el incumplimiento de las condiciones contractuales ofertadas, culpando ésta a su vez a operadores de la competencia.

jueves, 5 de febrero de 2009

Windows Viena

Windows 7
De Wikipedia, la enciclopedia libre
Saltar a navegación, búsqueda
Windows 7 (anteriormente conocido con nombre código Blackcomb, y luego Vienna) será la próxima versión de Microsoft Windows, sucesor de Windows Vista. Este sistema es creado sobre un kernel basado en el de Windows Server 2008 y permitirá la compatibilidad hacia atrás mediante la virtualización.
Al tener 6.1 como código de versión, mucha gente piensa que éste será una actualización menor con respecto a Windows Vista, cuyo código de versión es 6.0, pero esto se debe únicamente para evitar problemas de compatibilidad, ya que Windows 7 será un significativo avance evolutivo y una edición mayor de los sistemas operativos de Microsoft.[1]
Desarrollo [editar]
El desarrollo de este sistema operativo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20 de julio de 2007, se reveló que este sistema operativo es llamado internamente por Microsoft como la versión "7". Hasta el momento, la compañia declaró que Windows 7 tendra soporte para plataformas de 32 bits y 64 bits,[2] aunque la versión para servidor (que sucedería a Windows Server 2008) será exclusivamente de 64 bits.[3]
El 13 de octubre del 2008 fue anunciado que "Windows 7" además de haber sido uno de los tantos nombres código, sería el nombre oficial de este nuevo sistema operativo. Mike Nash dijo que esto se debía a que Windows 7 apunta a la simplicidad, y el nombre debe reflejarlo.
Ya para el 7 de enero del 2009, la versión beta se publico para suscriptores de Technet y MSDN. El 9 de enero, se habilitó brevemente al público general mediante descarga directa en la página oficial, pero hubo problemas con los servidores que obligaron a retirar la posibilidad de descarga hasta horas más tarde después de añadir más servidores y, ádemas, cambiaron el limite de 2,5 millones de personas como disculpa por el problema del retraso, el nuevo limite será hasta el 10 de febrero del 2009.
Características [editar]
Windows 7 incluye numerosas nuevas actualizaciones, incluyendo avances en reconocimiento de voz, táctil y escritura, soporte para discos virtuales, mejor desempeño en procesadores multi-núcleo, mejor arranque y mejoras en el núcleo.
Muchas nuevas características se agregaron al Panel de Control como: Aceleradores, Gadgets, Infrarrojo, Solución de problemas, Localización y otros sensores, Administrador de Credenciales, Windows Solution Center, entre otros.
Se hicieron grandes cambios en programas como WordPad, Paint, Calculadora y Teclado en pantalla.
La barra lateral de Windows o más conocida como Windows Sidebar se ha eliminado y ahora los gadgets pueden ubicarse libremente en cualquier lugar del escritorio.
Impresoras y dispositivos Nuevo item del panel del control en la que se tendra acceso a todo el hardware que se conecte al PC (marcos digitales, impresoras, cámaras fotográficas, etc). Junto a esto se ha incluido Device Stage, es un administrador de dispositivos móviles que ayuda a los usuarios a sincronizar música, vídeos, fotos y da información acerca del estado de la tarjeta SIM, la carga de la batería, mensajes, etc.
Aero Snaps: Permite cambiar el tamaño de una ventana simplemente con arrastrarla a un extremo de la pantalla, por ejemplo, si se arrastra al tope se maximiza, a la derecha o izquierda ocupa el 50% de la pantalla según el lado al que la arrastremos y si la arrastramos nuevamente al centro toma el tamaño original.

Windows Explorer [editar]
Librerías: Las "Librerías" son carpetas virtuales que agregan el contenido de varias carpetas y las muestran en una sola. Por ejemplo las carpetas agregadas en la librería "Vídeos" por defecto son: "Vídeos Personales" (antes "Mis Vídeos") y "Vídeos Públicos"aunque se pueden agregar más manualmente. Sirven para clasificar los diferentes tipos de archivos (Documentos, Música, Vídeos, Fotos).
Aero Shake Cuando se tiene varias ventanas abiertas, al seleccionar una y agitarla, las otras ventanas abiertas se minimizan, al repetir esta acción, las ventanas vuelven a su ubicación anterior.

Barra de tareas [editar]
La barra de tareas pasó por un lavado de cara haciéndola concordar más a las demás transparencias del sistema, se hizo más larga , los rectángulos de las ventanas ya no traen texto, solo el icono de la aplicación, y son más cuadrados. Estos cambios se hacen para mejorar el desempeño del "touch". Se integró con el inicio rápido, ahora las ventanas abiertas se muestran con un borde indicando que están abiertas y los accesos directos sin borde.
Aero Peek: Las previsualizaciones incluidas desde Windows Vista se han mejorado pasando a ser más interactivas y útiles. Cuando se posa el mouse sobre una aplicación abierta este muestra una previsualización de la ventana donde muestra el nombre, la previsualización y la opción de cerrarla, ádemas, si se pone el ratón sobre la previsualización, se obtiene una mirada a pantalla completa y al quitarse el mouse se devuelve a donde estábamos.
Jump List: Haciendo click derecho a cualquier aplicación de la barra de tareas aparece una "Jump List" en donde se pueden hacer tareas sencillas de acuerdo a la aplicación, por ejemplo, abrir documentos recientes de Office, abrir pestañas recientes de Internet Explorer, escoger listas de reproducción en el Media Player, cambiar estatus en messenger, etc.
Mostrar Escritorio: Esta nueva barra trae un pequeño rectángulo en la esquina derecha que reemplaza el ícono en inicio rápido de versiones anteriores. Este nuevo "rectángulo" permite que al poner el puntero sobre él, haga que las ventanas se pongan 100% transparentes, esto sirve para poder ver el escritorio de manera rápida, ver gadgets u otras cosas, ó tambien simplemente se le puede dar click y minimizar todas las ventanas.
En el área de notificaciones por defecto solo se mostrarán las tareas del sistema y estas serán mas interactivas y permitirán realizar acciones sencillas sin tener que abrir una ventana

Multimedia [editar]
Windows 7 vendrá con nuevas versiones de Windows Media Center y Windows Media Player capaces de reproducir formatos MP4, MOV, 3GP, AVCHD, ADTS y WTV, e incluye codecs como H.264, MPEG4-SP, ASP/DivX/Xvid, MJPEG, DV, AAC, LPCM. Además, el Media Player también trae una versión lite para reproducir vídeos sin tener que cargar la biblioteca y otras cosas.

Interfaz [editar]
Se ha establecido públicamente que el equipo de desarrollo de la interfaz Ribbon de Microsoft Office 2007 formará parte activa en el rediseño del Explorador de Windows y posiblemente otros elementos de la Interfaz de Usuario. Esta interfaz ya está incluida en Paint y Wordpad (En Betas de Windows 7).

Multi-Touch [editar]
El 27 de mayo de 2008, Steve Ballmer y Bill Gates en la conferencia "D6: All Things Digital" dieron a conocer la nueva interfaz multi-touch llamándola "sólo una pequeña parte" de lo que vendrá con Windows 7. Más tarde Julie Larson Green vicepresidente corporativa mostró posibles usos, como hacer dibujos en Paint, agrandar o reducir fotos y recorrer un mapa en Internet, arrastrar y abrir elementos, simplemente con toques en la pantalla.
"Hoy en día la mayoría de las computadoras son manejadas gracias a la interacción mouse-teclado", dijo Bill Gates, presidente de Microsoft. "En los próximos años, el papel de la voz, la visión, la tinta -todos ellos- será enorme", afirmó.

Otras características [editar]
Algunas otras características originalmente planeadas para Windows Vista pueden ser parte de Windows 7, dependiendo de cuando éstas sean concluidas.
Windows 7 además incorporará un Hypervisor, el cual tendrá las características discutidas durante la fase preliminar de desarrollo de Windows Vista. Todo el código no administrado correrá en un entorno cerrado donde el acceso al "mundo externo" estará restringido por el sistema operativo. El acceso a los componentes externos estará deshabilitado desde este entorno cerrado, como el acceso directo al sistema de archivos, la capa de abstracción de hardware (HAL), y el direccionamiento de memoria. Todo acceso a las aplicaciones externas, archivos, y protocolos será regulado por el sistema operativo, y cualquier actividad maliciosa será detenida inmediatamente. Si esta aproximación es satisfactoria, se presagia muy bien la seguridad del usuario, haciendo virtualmente imposible para una aplicación maliciosa causar daño al sistema si dicha aplicación está bloqueada dentro de esta metafórica "caja de cristal". También, este entorno cerrado será capaz de adaptarse a sí mismo al código base al cual fue escrito. Esto aliviará muchos problemas que se presenten por compatibilidad cada vez que un nuevo sistema operativo sale al mercado.
Otra característica mencionada por Bill Gates es que "las lineas de mecanografía reconocerán lo que el usuario esté tecleando". Las implicaciones de esto podrían ser simplemente como la función "autocompletar" encontrada en los motores de búsqueda modernos, (como Google Suggest) o como una forma de dar comandos verbales al PC sin preocuparse por la sintaxis. Posiblemente, esto puede darse mediante interfaces de comando basadas en Windows PowerShell. De hecho, ya se ha estado diciendo que las futuras herramientas de administración de la GUI serán envueltas con PowerShell, así incorporar la línea de comandos en estas herramientas es natural.
Microsoft ha decidido no incluir los programas Windows Mail, Windows Movie Maker y Windows Photo Gallery en Windows 7 y en su lugar ponerlos a disposición a modo de descarga en el paquete de Windows Live Essentials. Esto se ha decidido para facilitar las actualizaciones de estos programas, aligerar el sistema operativo, dejar escoger al usuario las aplicaciones que quiere tener en su equipo y evitar futuras demandas por monopolio. También se ha renovado la calculadora con nuevas funciones y nueva interfaz.