domingo, 22 de noviembre de 2009
LOS 5 MEJORES ORDENADORES PORTATILES
Pero bien, para todos ellos he preparado una lista de los 5 mejores computadores portátiles para los adictos a los super juegos, inicialmente empezaré a nombrarlos descendentemente, ¿como así? desde el más bajo “en especificaciones” hasta llegar al más potente, por decirlo así.
Antes de empezar, recalco que el criterio con el que la mayoría de jugadores escogen sus portátiles para “games”, lo que siempre observan es la tarjeta de video y la pregunta siempre es la misma cuando vamos a comprar uno ¿La memoria de la tarjeta de video es compartida o no?
Si la respuesta es si, descarta ese portátil, porque seguramente te funcionará si acaso para uno que otro juego del momento, y sin embargo estoy seguro que te correrán pero demasiado lento, así que en últimas tendrás que ir al juego y bajarle todas las opciones de textura, calidad de sonido y esas cosas para ver si así logras jugar lo que habías instalado, y es esto es muy fácil de comprobar en Internet, a través de foros en donde muchos usuarios se quejan de que sus juegos no corren en portátiles XXXX.
Lo recomendable siempre es comprar un portátil que posea en sus especificaciones memoria de vídeo dedicada y de marcas reconocidas como nVidia o las famosas ATI.
Ahora sí luego de un preámbulo damos inicio a nuestro “TOP 5 de Portátiles para Gamers”
Puesto Número 5: ASUS G2S
El ASUS G2S, de momento se lleva el puesto número 5 en nuestro Top, porque aparte de poseer prestaciones muy completas como contar con WiFi, Webcam incorporada de 1.3 megapixeles, entre otras nos ofrece una tarjeta de video GeForce 8600 GT de 256 MB.En una la siguiente página Web que recomiendo, Notebookcheck, he podido ver que el desempeño de la tarjeta de video GeForce 8600 GT es bueno como los logrados en las tarjetas de video 7600 GT y 7900 GS, y para finalizar lo importante del ASUS G2S es que soporta juegos que se basen en DirectX 10.
Puesto Número 4: La actualización del ASUS G2S
Otro de los nuevo portátiles que lanzará ASUS al mercado es la actualización del ASUS G2S, que igualmente posee una tarjeta de video Nvidia GeForce 8600 GT de 256 MB, pero tendrá otro tipo de prestaciones adicionales a su antecesor, es el hecho de que se entregara con un maletín especial y un ratón Logitech modificado.
Puesto Número 3: Acer Aspire 7720G
Éste portátil nos lo presentó el pasado 27 de septiembre nuestro compañero Christian, allí él nombraba que posee un procesador Intel Centrino 2 Duo, el cual viene acompañado con una tarjeta de video NVIDIA GeForce 8600M GT con 512 VRAM.
Para los que no saben la famosa VRAM es un tipo de memoria RAM que utiliza nuestra tarjeta de video para poder manejar toda la información visual que le manda la CPU del sistema, y la principal característica de ésta es que es accesible de forma simultánea por dos dispositivos.
Lo que en otras palabras se resume como la posibilidad de que la CPU grabe información en ella (VRAM), mientras se leen los datos que serán visualizados en el monitor en cada momento.
Lo que más me gusta de este portátil es que posee un sistema de sonido envolvente tipo “ teatro en casa” que ha sido certificado por Dolby y que además tiene un potenciador de graves, que en últimas reflejarán excelente sonido a la hora de jugar.
Puesto número 2: Voodoo ENVY M:152
HP también hace su aparición en nuestro listado con el portátil denominado Voodoo ENVY M:152 que a simple vista no queda cautivar por su diseño y su color rojo, algo bastante llamativo.
Éste incorpora la misma tarjeta de video que hemos nombrado para todos los equipos del TOP 5, pero podríamos destacarlo porque ofrece resoluciones FullHD y porque incorpora una cámara de 2 megapixeles y por su portabilidad.
Puesto número 1: Alienware Area-51 m9750
El primer puesto de los mejores computadores portátiles para jugadores se lo lleva el Alienware Area-51 m9750, computador que brilla por su aspecto exterior e interior.Éste viene equipado con un procesador Intel Core 2 Duo a 667 MHz y con una tarjeta de video NVIDIA GeForce Go 7950 GTX GDDR3 de 512MB, es decir cuenta con una de las mejores tarjetas de video que tiene la NVIDIA, que ofrece alta resoluciones y su desempeño es comparado con tarjetas de video 7950 GT para Desktop según nos informa Notebookchek en Español.
Conclusiones finales:
- Antes de comprar un cómputador portátil para juegos, fíjate bien en si éste tiene tarjeta de video dedicada
- Evalúa bien para qué quieres tú computador pues si lo quieres para cosas más básicas, el optar por uno de “gamers” resultará ser mucho más costoso y además no le sacarás el potencial completo de uno de estos monstruos que te presentamos anteriormente.
- Por último cabe recordar que todo entra por los ojos, y las compañías fabricantes a veces no toman en cuenta ésto, pues ofrecen en algunos casos un supercomputador pero con un diseño exterior mal logrado, y es por ello que mas de uno los descarta a la hora de comprarlos.
ASIERAN LOS ORDENADORES HACE ASI 40 AÑOS
Pero, en cierto sentido, incluso puede ser nostálgico para algunos soñadores y amantes de las tecnologías, el observar detenidamente cada uno de los ordenadores que (gracias al website Oldcomputers), mostraremos en esta entrada. Principalmente, porque así eran hace casi 40 años…
Este ordenador (llamado IMSAI 8080), fue uno de los primeros disponibles para el consumidor; desarrollado por la empresa californiana IMS de San Leandro.
El modelo 5100 fue el primer “ordenador portátil” (al menos, transportable), desarrollado por la ya clásica empresa IBM. Pesaba unas 55 libras (error actualizado).
El micro-ordenador KIM-1 (Keyboard Input Monitor) fue el primero en incorporar un microprocesador; en este caso, como vemos arriba de estas líneas, el 6502 creado por MOS Technology. Una forma de demostrar su energía a la comunidad industrial
Ya el diseño (esa cuestión que tanto nos gusta), parece que se iba imponiendo a mediados de la década de los 70. Y si no, que se lo digan a “La Sabiduría de Solomón”, como fue bautizado este ordenador con forma de máquina de escribir.
Excepcional imágen del avance de los Sol-20, tratado ya anteriormente con el nombre de “La Sabiduría de Solomón”
Este fue, sin duda alguna, uno de los ordenadores más populares del momento: el Apple II, una mejora con respecto al Apple I, a pesar de que poseía tanto la misma memoria como la misma velocidad
El Vector Graphic 1 fue diseñado y vendido en el año 1976 como el primero en incorporar RAM, y una forma de incluir tarjetas de extensión de memoria
He aquí el primer Commodore; en este caso, el Commodore PET, u ordenador electrónico personal, como fue denominado, aunque más nombrado con el apelativo de “animal doméstico conocido”. Simplemente consistía en un caro capricho…
Fue vendido como uno de los primeros ordenadores personales, y es que el TRS-80 simplemente tuvo un gran éxito. Fue desarrollado por Tandy, y aunque no contaba con muchas ventas, consiguió vender un total de 10.000 unidades en sólo un mes (ahí es nada). Incorporana un monitor, una cassette, y un teclado-computador.
Fue desarrollado por una empresa que, en 1976, pasó por diversos problemas y circunstancias adversas. Desarrolló un sistema más barato de cajas de diskettes para computadores ya existentes; los cuales se convirtieron en un gran éxito.
Lanzado a finales del año 1977, el H8 era en sí la primera computadora disponible de HeathKit.
Antes de la computadora Sorcerer, Exidy era el primer fabricante de videojuegos. Decidieron, eso sí, que tenían la capacidad de diseñar y fabricar un ordenador personal…
…Y así fue, convirtiéndose en la primera computadora en utilizar cartuchos de la ROM como carga y acceso inmediato a programas diversos
El Challenger 4P abarcó tarjetas de video, de memoria, y de conexión de discos, además de teclado y panel
Fue el segundo modelo del TRS-80, diseñado y fabricado por Radio Shack en Fort Worth, Texas. Una máquina con mucha más velocidad, apuntadas directamente al mercado de consumo.
LOS 10 MANDAMIENTOS DE GOOGLE
1- Concéntrate en el usuario y todo lo demás llegará sólo
2- Es mejor centrarse en una cosa y hacerla muy, muy bien
3- Deprisa es mejor que despacio
4- La democracia funciona en Internet
5- No necesitas estar ante tu escritorio para demandar respuestas
6- Puedes ganar dinero sin ser malo
7- Siempre hay más información ahí fuera
8- La necesidad de información cruza todas las fronteras
9- Puedes ser serio sin traje y corbata
10- Excelente no es suficientemente bueno
Si quiere saber más sobre la filosofía de la compañía, solo tienes que ingresar en Google Corporate Information. Allí encontraras la descripción de cada punto que aquí hemos nombrado.
DELL INSPIRON
La aceptación que ha tenido Dell se debe a que gran parte de sus elementos tecnológicos se comercializa por Internet, aunque actualmente algunas cadenas están empezando a tenerlos en cuenta.
En el día de hoy hemos querido hacer una pequeña recopilación de los equipos de Dell, exactamente los Inspiron que hemos venido mencionando en Tecnyo.
En primera instancia queremos hablarles del Dell Mini Inspiron, un ultraportátil disponible en dos tamaños, uno con una pantalla de 8.9 pulgadas y otro con 12.1 pulgadas, además de que cuentan con un procesador Intel Atom a 1.6 GHz, disco duro SSD con una capacidad de almacenamiento de hasta 4 GB, conectividad bluetooth, conectividad WiFi y soporte WIMAX.
Otro de los equipos Inspiron que conocimos por medio de Tecnyo fueron los ordenadores de sobremesa 537, 537s y 545. Estas pequeñas minitorres incorporan un procesador Intel Celeron, Intel Pentium o Intel Core 2 Duo (a elegir por el usuario).
Siguiendo con la recopilación nos encontramos con el Dell Inspiron Mini 10v, un ultraportátil que dispone de un procesador Intel Atom N270, memoria RAM de 1 GB, disco duro con una capacidad de almacenamiento de 120 o 160 GB (a elegir por el usuario) y una pantalla de 10.1 pulgadas con resolución de 1024 x 576 pixeles.
Otra de las novedades que conocimos a través de Tecnyo fue el Dell Inspiron 1525, un ordenador portátil que dispone de una pantalla de 15.4 pulgadas, memoria RAM de 2 GB, procesador Intel Core 2 Duo T5450 a 1.6 GHz, conectividad WiFi y una tarjeta grafica Intel GMA X3100.
Una de las propuestas que vimos a principios del presente año fue el Dell Inspiron 15, un portátil bastante común que dispone de un procesador Intel Pentium T4200 a 2 GHz, memoria RAM de 2 GB con posibilidad de ampliarla hasta las 4 GB, disco duro SATA con una capacidad de almacenamiento de hasta 160 GB, unidad DVD, pantalla de 15 pulgadas con resolución de 1366 x 768 pixeles, lector de tarjetas 7 en 1 y 3 puertos USB 2.0.
Dell Mini Inspiron 10 fue una de las adquisiciones de la compañía estadounidense que se dieron a conocer en el pasado CES 2009, donde predomina su pantalla de 10 pulgadas con una resolución 720p, touchpad táctil, receptor GPS, soporte 3G y conectividad WiFi.
Finalizando con la recopilación llegamos al Dell Mini Inspiron 12, un ultraportátil que dispone de un procesador Intel Atom N270 a 1.6 GHz, disco duro a elegir entre uno de 60 y 80 GB, pantalla de 12.1 pulgadas con resolución de 1280 x 800 pixeles, conectividad WiFi, conectividad Bluetooth y 3 puertos USB.
Esta línea de equipos Inspiron es la más preferida por millones de personas en todo el globo debido a la eficacia y a los excelentes diseños en los que se encuentra, además que es una de las más vendidas de Dell.
LOS MEJORES ADELANTOS TECNOLOGIACOS DEL AÑO 2009
- Discos de estado sólido (SST): los solid state disks o discos de estado sólido son los nuevos discos que estan reemplazando los discos rígidos por su gran velocidad y durabilidad ya que no suben su temperatura al funcionar. De momento la contra es su elevado precio, pero todos sabemos que bajaran al aumentar la demanda.
- USB 3.0: con una transferencia de datos 10 veces superior a la actual norma USB 2.0 las transferencias de datos serán muchísimo mas rápido, a la vez que podemos transferir y recibir datos de modo simultaneo y al mismo tiempo gracias a la doble vía.
- Windows 7: el nuevo sistema operativo de la corporación Microsoft ha arrancado con muchas mejoras hacia el mundo de los sistemas operativos, mejorando la velocidad de Windows Xp a la vez que le suma todas las características gráficas de Windows Vista.
- Cloud computing: Las conexiones de red se han masificado de tal manera que prácticamente todo se hace a través de internet. La revolución de las redes sociales como Facebook o Twitter han logrado que el mundo este cada vez mas conectado.
- Laptops y Netbook Ultraportables: La conectividad del cloud computing ha hecho que la tecnología de las portatiles fuera obligada a crear nuevos equipos con un consumo de batería mucho menor para poder ser utilizadas en cualquier lugar.
INTEL DE INVESTIGACION INFORMATICA
La compañía Intel ha anunciado en el día de hoy que ha invertido varios millones de euros en su laboratorio europeo, donde se piensa trabajar en la creación de un chip informático que será 1000 veces más rápido que los superordenadores mas rápidos que existen actualmente en el globo.
El esfuerzo forma parte de los laboratorios de Europa y la red de investigación de Intel que la conforman 900 investigadores europeos. Dichos investigadores ayudaran a crear maquinas Exascale, capaces de procesar hasta 1 billón o 1 millón de millones de millones de instrucciones por segundo.
Intel dará soporte a la Exascale Centro de Investigación de Informática con una inversión de varios millones de euros durante un periodo largo de 3 años.
La Exascale Centro de Investigación de Informática combinara la experiencia de la investigación francesa y la visión de computación de alto rendimiento con los productos lideres de Intel, la tecnología y experiencia en esta área. El laboratorio se empleara alrededor de una docena de personas inicialmente y se espera que finalmente crezca tres veces más de lo inicial.
ALBERTO DE LAS FUENTES
Vivimos tiempos muy internetsantes. Esta semana se ha conocido que ya hay casi 150 millones de navegantes en todo el mundo, 147 exactamente, según un estudio publicado por Computer Industry Almanac. No deja de ser una minoría de privilegiados: sólo un 2,5% de los 6.000 millones de personas que habitan la Tierra. Y más de la mitad, el 52%, pertenece a un sólo país, Estados Unidos. Pero se confirma una vez más que Internet es el fenómeno tecnológico que más rápido se está extendiendo en la Historia de la Humanidad.
Y no sólo se extiende, sino que mejora. Hace unos meses anunciábamos que se estaba preparando una nueva red de comunicaciones conocida como Internet 2, un proyecto asupiciado por University Corporation for Advanced Internet Development (UCAID) y presidido por Douglas Van Houweling. Pues bien, Internet 2 es hasta mil veces más rápida que la actual. Y hoy casi es una realidad.
lunes, 9 de noviembre de 2009
- Los iconos
Un icono en Windows es una representación gráfica de un elemento del sistema operativo. Existen iconos para representar los archivos, documentos, aplicaciones, carpetas, etc.
- El botón de inicio
El botón de inicio es el lugar donde se pueden acceder todas las aplicaciones de Windows. Si quieres ejecutar una aplicación y no la encuentras en el escritorio puedes buscarla en la sección “programas” del botón de inicio.
lunes, 5 de octubre de 2009
Intel, el mayor fabricante mundial de chips, le dio un vistazo al futuro, en su evento anual Research Intel Day, realizado este mes en la ciudad estadounidense de San Francisco. En el evento se mostraron cerca de 40 proyectos y conceptos futuristas en áreas tales como ecotecnología, Internet en tres dimensiones, tecnologías de la información (TI) corporativa y movilidad inalámbrica.
La empresa también hizo público un sitio web, en versión beta, en el que los usuarios pueden encontrar "puntos y contrapuntos", al enviar una consulta sobre una afirmación que aparece en línea, para saber si están siendo engañados.
Entre los investigadores a disposición estuvieron Ajay Bhatt, el co-inventor del USB, el estándar para la conexión de dispositivos a las computadoras; y Joshua Smith, un pionero en robótica y plataformas con fuentes de alimentación energética inalámbricas. Ambos fueron retratados en un nuevo anuncio, llamado “Estrella de rock”, como parte de la campaña de marketing Patrocinando el futuro.
Justin Rattner, director ejecutivo de tecnología de Intel, explicó que “lo que los investigadores están desarrollando hoy en los laboratorios definitivamente volverá la computación futura y las comunicaciones más rápidas, más fáciles y más energéticamente eficientes, y tendrán un impacto significativo en el trabajo de la gente y en la vida doméstica en los próximos años".
En esta fotografía, un investigador de Intel apunta a un trípode que sostiene una cámara estéreo que registra videos en tres dimensiones (3D).
Rattner, que también es un Senior Fellow de Intel y vicepresidente y director de Intel Labs, discutió los cambios recientes en las agendas de investigación y las prioridades de Intel.
El objetivo es mejorar la probabilidad de lograr un impacto y alinear ese trabajo con los vectores de crecimiento global de la compañía, como movilidad, computación visual y diseños system-on-chip, en los cuales muchas funciones de computación y comunicaciones se localizan en una simple pieza de silicio.
La nueva organización, llamada Intel Labs, identificará oportunidades de cambio de juego para la innovación en tecnología y ofrecerá grandes avances y descubrimientos en esas áreas.
Varias de estas innovaciones de investigación estuvieron en exhibición durante el evento. Las demostraciones cubrieron la eficiencia energética para dispositivos móviles, experiencias conectadas envolventes, movilidad y TI corporativa.
En esta fotografía, un investigador de Intel apunta a un disipador de calor programable para acelerar teléfonos inteligentes.
También conocida como configuración de árbol. Se refiere a un arreglo de red en el que las estaciones están unidas a un bus en común.
TOPOLOGÍA DE BUS
Configuración física de una red, en la cual todos los sistemas están conectados a un cable principal; también se denomina bus lineal. Todas las estaciones se conectan directamente a un único canal físico (cable) de comunicación (bus). Según los sentidos posibles de transmisión, el bus puede ser unidireccional (principalmente buses de fibra óptica), los extremos del canal (cable) no están interconectados sino simplemente finalizados con un terminador de 50 ohmnios, el terminador elimina automáticamente la señal de los extremos, es posible unir varios segmentos de buses en una configuración "multibus" siendo necesario utilizar repetidores de señal en el caso de grandes distancias.
El procedimiento de comunicación utilizado en los buses bidireccionales es el de difusión ("Broadcast").
TOPOLOGÍA EN ESTRELLA
Una configuración de cables para redes LAN, que normalmente se utilizan un dispositivo central, a través del cual pasa toda la comunicación.
* Nodo concentrador central
* repetidor multipuerto, Pérdida de estrella = Pérdida de red
* Interruptor selector de canal
TOPOLOGÍA EN ANILLO
Una configuración de los cables en una red, en la cual los distribuyen alrededor de un anillo formado por el medio de transmisión, por ejemplo, Token Ring. El medio de comunicación de una red en anillo es que forma un bucle cerrado en el que se integran todas las estaciones de la red, mediante un pequeño repetidor que interrumpe el canal (nodo activo de regeneración de la señal), de modo que cada una de las estaciones mantiene la conexión con las otras adyacentes.
Cada dispositivo es un repetidor, Pérdida de nodo = Ruptura del anillo
TOPOLOGÍA EN MALLA
Esta estructura de red es típica de las WAN, pero también se puede utilizar en algunas aplicaciones de LAN, tiene ventajas frente a problemas de enbotellamiento y averías debido a su multiplicidad de caminos o rutas, y a la posibilidad de orientar el tráfico por trayectorias alternativas, los nodos están conectados cada uno con todos los demás. Su desventaja radica en que es cara y compleja su implementación.
TOPOLOGÍAS COMBINADAS
* ANILLO ESTRELLA
* BUS ESTRELLA
* ESTRELLA JERÁRQUICA
MEDIOS FÍSICOS
La capa física maneja directamente los medios de transmisión. Estos pueden ser, por ejemplo, cables de cobre, fibra óptica, cable coaxial, enlaces satelitales, enlaces de microondas, etc.
* PAR TRENZADO DE COBRE
Es el medio de transmisión más antiguo y el más utilizado actualmente. Consiste en un par de alambres de cobre aislados y trenzados con el propósito de cancelar el flujo magnético inducido por la corriente que fluye sobre ellos y reducir de esta forma la interferencia eléctrica. El sistema telefónico común que utilizamos se basa en este medio de transmisión, y a través de él se pueden tener comunicaciones análogas y digitales.
* CABLE COAXIAL
Es un cable también de cobre, pero con un blindaje mucho mejor. Además, posee un dieléctrico entre el blindaje o tierra y el conductor por donde viaja la señal. La respuesta en alta frecuencia de este tipo de cable es muy superior, permitiendo el transporte de más información a distancias más largas. Por ejemplo, se pueden lograr velocidades de hasta 2Gbps en un Km de distancia.
* FIBRA ÓPTICA
La fibra óptica ha sido una de las tecnologías que ha traído mayores beneficios en cuanto a medios de transmisión se refiere, ya que no es un conductor eléctrico, sino un material por el que se propaga la luz. Siendo aparentemente un cable, contiene fibras en su interior por las cuales se pueden enviar señales de luz en forma independiente. Es muy utilizada actualmente para troncales telefónicas o de datos, así como para los cables interoceánicos, tales como Americas-1 y el TCS-1. Es totalmente inmune al ruido electromagnético y las pérdidas son muy bajas en largas distancias.
Fibra monomodo
Fibramultimodo
* ENLACES DE RADIO, MICROONDAS Y SATÉLITES
Otro medio muy utilizado, y de igual importancia, es el que usa las ondas de radio (RF) dentro del espectro electromagnético. La comunicación puede darse, por ejemplo, con microondas, donde a altas frecuencias, más arriba de los 500Mhz, se establecen enlaces muy confiables entre dos puntos gracias a la alta directividad que se puede lograr con los patrones de radiación en las antenas. De esta forma se pueden tener comunicaciones a grandes distancias, o donde haya línea visual, y hacerlo de forma directa, sin repartir la información de manera omnidireccional. Este mismo principio se aplica en esencia a los enlaces de satélites, en donde se recurre a una frecuencia más alta y se usa el satélite como repetidor para devolver el mensaje a otro punto de la tierra, evitando los problemas presentados por obstáculos como las montañas, por ejemplo. En este caso, existe un elemento en contra que es el retardo, y que está dado por las grandes distancias que debe recorrer la señal para llegar a su destino.
Una red de computadores son dos o más computadores enlazados para el intercambio de datos. El software de una red permite compartir periféricos tales como Módem, Fax, CD-ROM, sistema de almacenamiento masivo, correo electrónico, manejo de proyectos en grupo, compartir aplicaciones, obtener recursos comunes, entre otros. La conexión física entre los computadores puede efectuarse por un alambre de cobre, fibra óptica, cableado utp, satélites de comunicación, microondas, entre otros.
ARQUITECTURA LÓGICA
* MAESTRO/ ESCLAVO (SIMILAR A UNA RELACIÓN DE ALUMNO Y MAESTRO)
Características:
1. Control central y administración
2. Procesamiento central de información
3. Poleo de estaciones
* PUNTO A PUNTO (Similar al concepto de grupo de trabajo)
Características:
1. Administración distribuida
2. Procesamiento independiente de información
3. Medio de transmisión compartido
* MODELO CLIENTE SERVIDOR (Similar a una transacción de cajero automático)
Características:
1. Red de administrador central
2. Flujo controlado de información
3. Proceso independiente de información
4. Medio de transmisión compartido
Los tipos de redes son:
- REDES LAN
Son redes de propiedad privada que funcionan dentro de una oficina, edificio o terreno hasta unos cuantos kilómetros, generalmente son usadas para conectar computadores personales y estaciones de trabajo en una compañía y su objetivo es compartir recursos e intercambiar información.
Las redes LAN generalmente usan una tecnología de transmisión que consiste en un cable sencillo, al cual se encuentran conectados todos los computadores, la velocidad tradicional de lasa redes de área local oscila entre 10 y 100 Mbps.
- REDES MAN
Es básicamente una versión más grande que las redes de área local con una tecnología similar. Una red MAN puede manejar voz y datos e incluso podría estar relacionada con la red de televisión local por cable. Este estándar define un protocolo de gran velocidad, en donde los computadores conectados comparten un bus doble de fibra óptica utilizando el método de acceso llamado bus de cola distribuido.
El distinguir las redes MAN en una categoría especial indica que se ha adoptado un estándar especial denominado DQDB, que consiste en dos cables ópticos unidireccionales, donde están conectados todos los computadores.
- REDES WAN
Es una red de gran alcance con un sistema de comunicaciones que interconecta redes geográficamente remotas, utilizando servicios proporcionados por las empresas de servicio público como comunicaciones vía telefónica o en ocasiones instalados por una misma organización. Una red que se extiende por un área geográfica extensa mantiene computadores con el propósito de efectuar aplicaciones, a estos se les denomina HOSTS. Los HOSTS se encuentran conectados a subredes de comunicaciones, cuya función es conducir mensajes de un host a otro, a diferencia del sistema telefónico que conduce la voz, los hosts conducen datos utilizando la misma vía (red telefónica).
Una red WAN también tiene la posibilidad de comunicarse mediante un sistema de satélite o radio, utilizando antenas las cuales efectúan la transmisión y recepción.
- REDES INALÁMBRICAS
Las redes inalámbricas se basan en el principio de conectar una antena a un circuito eléctrico en donde las ondas electromagnéticas se difunden para captarse en un receptor a cierta distancia.
La instalación de redes inalámbricas es relativamente fácil, pero presentan algunas desventajas como su velocidad de transmisión y recepción que puede alcanzar de 1 a 2 Mbps, lo cual es mucho más lento que las redes LAN y redes WAN.
- RED INTERNET
Internet o red de redes es la mayor de las redes existentes actualmente en el mundo, compuesta por millares de computadores conectados entre sí.
Uno de los aspectos más importantes de Internet es que utiliza una base tecnológica y protocolos de comunicación que son abiertos (no tienen propietario exclusivo), permitiendo la comunicación integrada entre computadores de distintos fabricantes.
ADAPTADORES DE RED
Son tarjetas que se instalan en un computador con el fin de ofrecer la conexión física a una red. Cada tarjeta se encuentra diseñada para trabajar en un tipo de red específico y soportar una gran variedad de cable y tipos de bus (ISA, MCA, EISA, PCI, PCMCIA).
Las nuevas tarjetas de red son configurables usando un programa de software para configurar los recursos asignados a la tarjeta.
EXPANSORES DE RED:
REPETIDORES Y CONCENTRADORES
-
PUENTES
-
ENRUTADORES
-
GATEWAYS
CONCENTRADORES DE RED (HUBS)
Los concentradores permiten la interconexión de diferentes tipos de cableado, añadiendo la ventaja de la utilización de máquinas como puentes o enrutadores sobre una misma caja.
De acuerdo a como son utilizados en un sistema de cableado estructurado se puede definir tres categorías de concentradores:
REPETIDORES
Son equipos que actúan a nivel físico. Prolongan la longitud de la red uniendo dos segmentos y amplificando la señal, pero junto con ella también amplifican el ruido. la red sigue siendo una sola, con lo cual, siguen siendo válidas las limitaciones en cuento al número de estaciones que pueden compartir el medio.
*BRIDGES
Son equipos que unen dos redes actuando sobre los protocolos de bajo nivel, en el nivel de control de acceso al medio. Sólo el tráfico de una red que va dirigido a la otra atraviesa el dispositivo. Esto permite a los administradores dividir las redes en segmentos lógicos, descargando de tráfico las interconexiones. Los bridges producen las señales, con lo cual no se transmite ruido a través de ellos.
ROUTER
El router opera en la capa 3 del modelo OSI y tiene más facilidades de software que un switch. Al funcionar en una capa mayor que la del switch, el ROUTER distingue entre los diferentes protocolos de red, tales como IP, IPX, Apple Talk o DECnet. Esto le permite hacer una decisión más inteligente que al switch, al momento de reenviar los paquetes.
GATEWAYS
Son equipos para interconectar redes con protocolos y arquitecturas completamente diferentes a todos los niveles de comunicación. La traducción de las unidades de información reduce mucho la velocidad de transmisión a través de estos equipos.
SERVIDORES
Son unos equipos potentes que ofrecen servicios a uno o más PCs clientes, por ejemplo acceso a archivos, aplicaciones, cola de impresión, acceso remoto. En una red pueden existir varios servidores y cada uno de ellos cumplir una función especial.
- servidor de correo electrónico
- servidor de Fax
- servidor de copias de seguridad
- servidor de impresoras
- servidor de base de datos
ESTACIÓN DE TRABAJO
Es un computador que trabaja como estación de usuario en la red que utiliza los recursos que el servidor tiene a su disposición.
Es en cierta medida, la forma en que las señales se transmiten por el cable, transportando tanto datos como información y los procedimientos de control de uso del medio por los distintos nodos. Los protocolos de bajo nivel más populares son:
- ETHERNET
- TOKEN RING
La implementación de IBM del Token passing, basado en el estándar 802.3 de IEEE; la segunda topología de red más popular después de Ethernet.
- TOKEN BUS
- FDDI
- CDDI
FDDI con cable UTP de categoría 5.
- HDLC
- FRAME RELAY
- ATM
Una tecnología de red, que transfiere datos para el posterior reenvío de diferentes tipos de información (video, datos, comunicación oral). El protocolo ATM es el protocolo básico de la RDSI. El paquete (celda) tiene una longitud de 53 bytes, dividida en una cabecera de 5 bytes, y un campo de datos de 48 bytes de longitud.
El ATM es un protocolo atípico en muchos sentidos; así, no incluye el subprotocolo para crear y eliminar los circuitos virtuales; además, un protocolo de comunicaciones corriente incluye en su cabecera una suma de chequeo, que permite detectar los errores producidos dentro del paquete durante la transmisión, y unos números de secuencia que tienen una doble función por un lado sirven para que el receptor pueda ordenar los paquetes si estos llegan desordenados, y por otro lado sirven como referencia para, en caso de error, poder indicarle al emisor cual ha sido el paquete defectuoso para que lo vuelva a enviar.
El protocolo de red es aquel que determina el modo y organización de la información (tanto datos como controles) para su transmisión por el medio físico con el protocolo de bajo nivel. Los protocolos de red más comunes son:
- IPX/SPX
- DECnet
- X.25
Un estándar WAN de protocolos y formatos de mansajes; se utiliza para tener acceso a una red de datos pública.
- TCP/IP
Es un protocolo de control de transmisión, que parte los mensajes en pequeños paquetes y que de este modo asegura su correcta recepción.
- AppleTalk
- NetBEUI
Las computadoras del futuro
Microsoft trabaja en un proyecto para convertir a las PC con Windows Media Center en equipos para ver televisión y películas, navegar por Internet y grabar y escuchar música.
Los planes de Microsoft de poner computadoras en las salas de la casa y convertirlas en las televisiones del futuro hace que tanto consumidores como fabricantes se pregunten cómo les afectará la decisión del gigante informático.
El proyecto Bill Gates es convertir computadoras dotadas con su sistema operativo Windows Media Center Edition (MCE) en el equipo ideal para ver televisión, películas, escuchar música y, por supuesto, navegar por internet desde las salas de todos los hogares.
En el mundo ideal de Gates, los televisores y equipos de música que se encuentran hoy en día en cualquier hogar serán reemplazados por computadoras equipadas con Windows MCE, uniendo en un sólo aparato reproductores de DVD, música MP3, video juegos, canales de televisión, radio e internet.
Pero el futuro de Gates es la pesadilla para los fabricantes de televisiones y equipos de música que no cuentan en su línea de productos con computadoras.
Windows MCE, una modificación del sistema XP ajustada para reproducir televisión, ya fue lanzada hace cuatro años pero ayer Gates anunció su tercera versión, la Edición 2005, con la que Microsoft quiere "aumentar el volumen de nuevo, cuatro o cinco veces más alto. Estamos moviendo Media Center hacia el gran público".
De momento, tal y como señaló Gates el martes al presentar el proyecto, los seis principales fabricantes de computadoras del mundo están vendiendo versiones de sus equipos preparados para funcionar con Windows MCE.
Incluso la multinacional japonesa de electrónica Toshiba tiene una versión para computadoras portátiles, "Qosmio".
Hasta ahora, las computadoras se conectan a tomacorriente. Y tienen microprocesadores del tamaño de la punta de los dedos, con 16 millones de circuitos en su corazón. Aunque en las dos próximas décadas las cosas pueden cambiar. La miniaturización de los microchips (que hasta ahora sirvió para aumentar la velocidad en el procesamiento de los datos) no puede seguir indefinidamente. En 20 años, el achique provocará que los microchips y sus componentes alcancen la escala atómica.Por eso, científicos de América y Europa buscan que las computadoras del futuro ya no funcionen en base a electricidad. Su meta (y su sueño) es que la máquina del siglo veintiuno se alimente pura y exclusivamente de luz.Para ganar en rapidez y potencia, los nuevos circuitos integrados no transportarían chorros de electrones, sino partículas de luz (fotones). La velocidad de transmisión de datos más alta que existe hasta el momento es la velocidad de la luz, y la de un electrón es muy inferior a ella, explicó David DiVicenzo, del Centro de Investigaciones de la empresa IBM, a la revista Scientific American.Es que los haces luminosos pueden recorrer las distancias que separan uno y otro interruptor a una velocidad de 300 mil kilómetros por segundo.Por eso, cada placa madre de las computadoras ópticas estará formada por miles de láseres microscópicos o fuentes luminosas. Cada uno de los cuales envía y recibe mensajes a medida que se enciende y apaga millones de veces.Las ventajas de usar luz para transportar información dentro de la computadora no se limita al aumento de la velocidad. Además de ser más rápidos que la electricidad, los fotones tienen la ventaja de poder cruzarse sin provocar un cortocircuito. Con los electrones no sucede lo mismo: dos alambres de cobre que se encuentran inesperadamente serán la causa segura de un apagón en toda la casa.Esa capacidad de convivencia y buena vecindad estará directamente relacionada con la cantidad de datos que la computadora podrá procesar cada vez. Al poder ir y venir por el mismo canal en direcciones opuestas, la información circulante aumenta considerablemente. Problemas de chispazos aparte, la electricidad tiene otros inconvenientes: los electrones son propensos a acumular calor. Por eso, las computadoras vienen con un miniventilador que refresca la máquina, y la protege del recalentamiento. Manteniéndola a salvo de fundirse en el instante menos pensado. Al menos en teoría, las computadoras ópticas podrán superar muchas de estas dificultades.Aunque el premio mayor sería dar con una computadora capaz de funcionar totalmente a base de luz, los expertos se conforman (por el momento) con fabricar pequeñas partes que puedan ensamblarse y terminar en una dream machine o máquina de los sueños, con todo lo que tiene que tener, incluidos los periféricos como lectores de CD-ROM y escáneres.Hace poco más de 4 años, un grupo de investigadores de la Universidad de Colorado, en los Estados Unidos, construyó un prototipo capaz de almacenar y procesar la información utilizando haces de luz láser circulando alrededor de una fibra óptica, en vez de electrones. Todavía muy primitivo, el modelo puede procesar información por sí mismo, sin depender de una computadora electrónica que proporcione instrucciones y provea datos desde afuera.Indomable, una de las principales contras de la luz es que no puede ir de un circuito a otro dentro de un mismo chip, sin un mecanismo que la confine. Para solucionarlo, investigadores de la Universidad de Illinois y del Instituto de Tecnología de Zurich lograron armar el año pasado cables ópticos o waveguides, capaces de guiar a los fotones aun en caminos curvos .De todos los elementos aislados que ingenieros y expertos en computación construyeron hasta ahora, los interruptores o llaves de encendido y apagado (switchs) fueron los más complicados de lograr. E, incluso, los que precisaron mayor desarrollo.Aunque no significa que los científicos puedan empezar a producir y comercializar switchs ópticos ahora mismo, científicos que trabajan en la Universidad de Cambridge se las ingeniaron. Y lograron prender y apagar un interruptor a través de pulsos de luz láser. Pero si fabricar circuitos totalmente ópticos es muy difícil, a los ingenieros les queda un camino alternativo: hacer que chips de silicio y chips de luz congenien en un mismo espacio, por mitades. En un futuro cercano, al menos, las computadoras ópticas deberán conformarse con ser sistemas híbridos, medio electrónicos, medio ópticos, admite John Walkup, director del Laboratorio de Sistemas Opticos de la Universidad Tecnológica de Texas, en Estados Unidos.La cuestión es que ambos tipos de microprocesadores son muy diferentes, de manera que integrarlos en una estructura única resulta complicado y... caro.Internet, por su parte, no quedará al margen de los desarrollos. Expertos del MIT (Instituto Tecnológico de Massachusetts), están desarrollando un hardware para redes que funciona gracias a láseres capaces de transmitir 100 mil millones de pulsos por segundo.
Las computadoras del futuro, según Intel
Justin Rattner, director senior de Intel, quiere que las computadoras del futuro tengan la capacidad de interactuar con las personas y desarrollar facultades predictivas. “Queremos una tecnología para llegar a ser más naturales, donde podamos mantener una conversación con los diversos dispositivos que nos rodean”, afirmó Rattner.
Según la compañía, el concepto “portátil” se refiere a un notebook que brinda a su dueño movilidad para usar contenido digital en cualquier lugar, así como la sincronización del contenido desde una PC o desde una red para poder luego usarlo en la laptop.
Los equipos
Tienen un tamaño reducido -caben en la mano-, pantalla táctil y se gira como un altavoz plano, eliminando de este modo el teclado.
Como complementos, los equipos tienen un teclado para introducir datos, un reproductor de DVD externo, un sistema GPS, cámara integrada y una batería de micrófonos.
Según indican varios medios alrededor del mundo, el sistema integra gestionabilidad fuera de banda, indicadores visuales de actividad, lector de huellas dactilares, cámara, teléfono y tecnología inalámbrica y Bluetooth.
Durante el Intel Developer Forum, la empresa explicó que todos los modelos presentados tenían como objetivo motivar a los fabricantes y armadores de computadoras. Es decir, los equipos presentados no estarán en el mercado a menos que alguna de las compañías tome las ideas y las ponga en práctica.
lunes, 28 de septiembre de 2009
He leído mucha ciencia-ficción, y lo vengo haciendo desde muy chico. Es decir, desde mucho antes que el género fuera aceptado por las eminencias académicas y durante suficiente tiempo para observar con qué frecuencia las predicciones de los autores fallan, y de qué manera lo hacen.
No discutiré sobre los valores literarios de la ciencia-ficción aquí. En primer lugar, por razones de espacio. En segundo lugar, porque no creo en los géneros. O, más bien, creo que la verdadera obra de arte derrota toda clasificación. Hamlet podría encuadrarse en el género policial, y Romeo y Julieta emparejarse con las novelas de la Austen, pero sabemos que no es así y es allí donde, en mi concepto, reside su arte.
Luego del informe que el contralmirante Chris Parry presentó la semana última para mostrar los desafíos que podrían encontrar en el futuro las Fuerzas Armadas británicas, quiero limitarme al tema de la predicción. En su trabajo, Parry augura un futuro si no negro, pardo oscuro. Aunque se ataja diciendo que son no predicciones firmes (¿cómo podrían serlo de aquí a 30 años?), el nivel de detalle es sospechosamente fino. En lo que nos concierne, dice -por ejemplo- que en 30 años estaríamos usando chips implantados en el cerebro.
Excepto porque me asusta y me provoca rechazo el tener un dispositivo electrónico metido en el cráneo, estaría buenísimo. No haría falta ya cargar con pantallas, auriculares, parlantes envolventes y la aventura 3D podría crear la ilusión de gravedad, tacto y movimiento sin necesidad de gastar fortunas en cabinas, trajes y guantes. Deme dos.
Sólo me hago una pregunta: ¿por qué extender de aquí a 30 años una tecnología que ya existe hoy, por ejemplo, para tratar la ceguera? Es decir: ¿por qué suponer que dentro de 30 años vamos a necesitar implantar un chip en el cerebro?
Es el mismo error que cometen muchos excelentes autores de ciencia ficción. Novelas de los años 50 que hablan de un futuro lejano en el que las computadoras usan todavía tarjetas perforadas (como en los 50, claro).
Luego de leer esto de los chips cerebrales me di cuenta de que el problema no es predecir el futuro, sino sustraerse del presente. Poquísimos escritores lo han conseguido (Herbert con Duna ; Silverberg con Sadrac en el Horno ), y se me ocurre que el informe de Parry tropieza con este viejo, difícil y engañoso arrecife. Lo diré más simple: no me extrañaría que en 30 años hayamos encontrado formas de interactuar con el cerebro sin practicarle hoyos en la cabeza a nadie. Como fuere, esta sola extrapolación de Parry pone en duda la verosilimilitud del resto de su informe. Ya veremos.
Antiguamente las personas contaban con piedras, posteriormente los chinos descubrieron el ABACO, aproximadamente en el año 5000 A.C. el cual trabajaba en base 10.
La computación se ha necesitado para el manejo de los negocios y el desarrollo de las ciencias.
En 1617, John Napier ideó un aparato con 11 varillas, con números marcados encima, en tal forma que al colocar
las varillas lado alado se obtenían productos y consientes de números grandes.
En 1632 aparece la regla de calculo de Ougthtre.
En 1642, el matemático francés Blaise Pascal inventó una maquina mecánica (piñones y engranajes) que servia
para sumar y restar.que recibio el nombre de la pascalina
Después el alemán Gottfield Leibnitiz mejoró la máquina de Pascal para que realizara las operaciones como multiplicar y dividir.
En 1810, Joseph Jacguard, inventó la tarjeta perforada. La base de esta tarjeta perforada consistía en que cuando los
ganchos guías encontraban un hueco entraban en el patrón.
En 1850 el ingles CHARLES BABBAGE, ideó un computador que el denominó MAQUINA ANALITICA
que fue capaz de recordar hasta 1000 cifras de 50 dígitos cada una y debería comportarse como lo hace hoy un computador moderno. Con la diferencia de que trabajaba con partes mecánicas en lugar de circuitos electrónicos.
En 1947, se construyó en la Universidad de Pennsylvania, el primer computador electrónico que recibió el nombre de ENIAC
(electrinic numeric integrator and calculator)
Integrador y calculador numérico electrónico. De un tamaño monstruoso (mayor que una casa), con 18.000 válvulas de vacío o tubos y un peso de 30 toneladas, consumía la energía necesaria para mantener encendidas 15.000 bombillas. Este fue el primer computador moderno y estaba diseñado para trabajos científicos.
John Von Newmanw, presenta la idea de un computador de propósitos generales, dando comienzo a la computación comercial.
En 1960 los tubos de vacío fueron sustituidos por los transistores, haciendo los circuitos más eficientes y de mayor velocidad.
Hoy en día los transistores han sido desplazados por los microcircuitos integrados y han aparecido computadores muy versátiles en su configuración.
Primera Generación (1951-1958)
Estas máquinas tenían las siguientes características:
Usaban tubos al vacío para procesar información.
Usaban tarjetas perforadas para entrar los datos y los programas.
Usaban cilindros magnéticos para almacenar información e instrucciones internas.
Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.
Segunda Generación (1958-1964)
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.
Características de está generación:
Usaban transistores para procesar información.
Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío.
200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío.
Usaban pequeños anillos magnéticos para almacenar información e instrucciones. cantidad de calor y eran sumamente lentas.
Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accsesibles.
Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general.
La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind I".
Surgieron las minicomputadoras y los terminales a distancia.
Se comenzó a disminuir el tamaño de las computadoras.
Tercera Generación (1964-1971)
La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.
Características de está generación:
Se desarrollaron circuitos integrados para procesar información.
Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores.
Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas.
Surge la multiprogramación.
Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.
Emerge la industria del "software".
Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
Otra vez las computadoras se tornan más pequeñas, más ligeras y más eficientes.
Consumían menos electricidad, por lo tanto, generaban menos calor.
Cuarta Generación (1971-1988)
Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
Características de está generación:
Se desarrolló el microprocesador.
Se colocan más circuitos dentro de un "chip".
"LSI - Large Scale Integration circuit".
"VLSI - Very Large Scale Integration circuit".
Cada "chip" puede hacer diferentes tareas.
Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips".
Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
Se desarrollan las supercomputadoras.
Quinta Generación (1983 al presente)
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.Se desarrollan las supercomputadoras.
Check out this SlideShare Presentation: