viernes, 24 de octubre de 2008


La Revolución Informática

Para que la era de las computadoras personales llegara, tuvo que continuar el empequeñecimiento de los componentes de una computadora: primero, en un solo chip se integraron cientos de elementos (LSI, Large Scale Integration); pero éste era apenas el comienzo, los siguientes serían capaces de contener cientos de miles de elementos (VLSI, Very Large Scale Integration) y luego millones.
Las computadoras, en su concepto actual, comenzaron en 1968, cuando Robert Noyce y Gordon Moore fundaron Intel Co., empresa que un año después lanzaría el producto que la haría multimillonaria: el chip que podía almacenar programas y recibir instrucciones, diseñado por Ted Hoff. Ese mismo año, el 21 de julio de 1969, el astronauta norteamericano Neil Amstrong, a bordo de la nave Apolo 11, pisó suelo lunar: "Es un paso pequeño para un hombre y un salto gigante para la humanidad" afirmó por televisión ante millones de espectadores.
En 1970, el chip de Hoff se convertía en el primer microprocesador disponible en el mercado, el Intel 4004; incluía todos los componentes de una computadora en un sólo circuito integrado: unidad central de procesamiento, memoria y controles de entrada y salida de información. El Intel 4004 representó un hito en la arquitectura de las computadoras, ya que empleaba solo 2 300 transistores, relativamente pocos si se toma en cuenta que los microprocesadores actuales contienen alrededor de 10 millones de componentes electrónicos. Los 2 300 transistores del Intel 4004 procesaban 108 kHz, contaban con 60 instrucciones y 8kb de espacio de almacenamiento.
El surgimiento del microprocesador no solamente permitió una drástica disminución en las dimensiones de las computadoras —ahora microcomputadoras—, sino también un gran salto cualitativo en términos tecnológicos. Previamente, un circuito integrado tenía que ser manufacturado para desarrollar determinadas funciones específicas, en cambio, un microprocesador puede manufacturarse y después ser programado para dar respuesta a diversos requerimientos de tal manera que han ido incorporándose a aparatos como televisores, hornos de microondas, automóviles, etcétera, haciendo posible que muchas de las funciones que realizan estas máquinas se efectúen de manera automática. En este orden de ideas, el microprocesador ha significado el posicionamiento de la informática como eje rector del desarrollo tecnológico en su conjunto.
Origen de la Computadora Personal
Gracias a la paranoia de la Guerra Fría, el Departamento de Defensa de Estados Unidos creó la Agencia de Proyectos de Investigación Avanzada (ARPA, por sus siglas en inglés). En torno a esta organización, jóvenes ingenieros trabajaron en varios centros académicos de Estados Unidos para lograr que la computación dejara de ser un campo reservado a expertos, como lo era a mediados del siglo XX. Efectivamente, a inicios de la década de los sesentas, la computación ya se había abierto un poco a las universidades, pero seguía siendo asunto de una élite. Sin embargo, a principios de la siguiente década, la computación se convirtió en una industria y comenzó a perfilarse como una subcultura.
El equipo que durante varios años fue auspiciado por el ARPA estuvo dirigido por Douglas C. Engelbart. El concepto de microcomputadora actual surgió de aquel grupo; Engelbart insistía en que las nuevas computadoras debían poder ser utilizadas por personas no especialistas. Para ello, fue necesario el desarrollo e integración de la computación gráfica, la computación interactiva y la de tiempo compartido.
El propio Engelbart —quien durante la II Guerra Mundial fue operador de radares— explica claramente cómo surgió el concepto de computación gráfica:
"Cuando oí hablar de los ordenadores por primera vez, comprendí que si esas máquinas nos pueden mostrar información en tarjetas perforadas y en papel impreso, también pueden escribir o dibujar información sobre una pantalla. Cuando vi la conexión entre una pantalla, un procesador de información y un medio a través del cual representar los símbolos para una persona, todo encajó en su lugar en una media hora."
Ivan Sutherland, del Lincoln Laboratory del MIT y parte del grupo de Engelbart, desarrolló el campo de la computación gráfica, es decir, la incorporación de una pantalla a una computadora. En 1962, creó el primer sistema de interfaz gráfica, el Sketchpad. Poco después, la computadora dec-pdp-1, financiada por la DEC (Digital Equipment Corporation), y diseñada por ingenieros del MIT, fue la primera microcomputadora que mostraba información en una pantalla. Atrás quedaba la penosa comunicación con la computadora por medio de tarjetas y cintas que confundía la interpretación y requería de un especialista en todo momento.
El segundo concepto, el de la computación interactiva, se refiere al uso de una computadora en tiempo real; es decir, durante los primeros años de la década de los sesenta, en paralelo a la evolución de la computación gráfica, se desarrollaron las técnicas que permitieron que las computadoras pudieran usarse como un músico lo hace con su instrumento: al tiempo que lo toca escucha el resultado de su operación. La intención fue dejar atrás la mecánica de uso asincrónica, al menos en tres tiempos: el acceso de información y/o programas por medio de tarjetas y cintas perforadas, el lapso de espera mientras la máquina procesaba, y la salida de resultados también en forma impresa. La computación interactiva se desarrolló fundamentalmente en el Instituto de Investigaciones de la Universidad de Stanford.
En tercer lugar, también durante los años 60, surge la computación de tiempo compartido, el sistema por medio del cual una misma computadora puede dar servicio a muchas personas, a través de terminales. La trascendencia de la computación de tiempo compartido estriba en que gracias a dicha forma de trabajo se desarrollaron una serie de técnicas encaminadas a permitir la transmisión de información —comunicación— entre los usuarios; ejemplo derivado de ello es el correo electrónico.
Finalmente, durante una conferencia de cómputo celebrada en San Francisco, California, en 1968, el propio Douglas C. Engelbart presentó el resultado de la integración del trabajo de los equipos financiados po ARPA: el primer sistema computacional que incluía teclado, tablero, mouse, monitor y ventanas desplegables (interfaz gráfica).
Sin embargo, la primera máquina que agrupó los elementos mínimos de una computadora personal fue construida en 1970. Un año antes, Peter McCollugh, jefe principal de Xerox, proclamó la intención de convertir su compañía en el arquitecto de la información del futuro. Para ello comenzó la construcción de un laboratorio de investigación de punta en California con una inversión multimillonaria, el Centro Xerox de Investigaciones de Palo Alto, conocido como PARC. Robert Taylor, exmiembro de la NASA y de ARPA, fue contratado por Xerox para crear y dirigir el Laboratorio de Ciencias de la Computación. A su vez, Taylor contrató a Alan Kay "y a unas pocas docenas de las más brillantes luminarias de ARPA…", para desarrollar la primera computadora interactiva en tiempo real, gráfica y totalmente autónoma.Para el resto de nosotrosDespués del lanzamiento del primer microprocesador, el desarrollo tecnológico se aceleró todavía más. En 1971, diez años antes de que la IBM lanzara al mercado su primera pc, Steve Wozniak, Woz (1951), y Bill Fernández construyeron una computadora con material de deshecho, llamada Cream Soda Computer. Al año siguiente, Nolan Bushnell funda Atari, misma que en 1974 lanzó al mercado la microcomputadora Atari y vendió cerca de 3 000 equipos en pocos meses, convirtiéndose esto en un éxito sin precedentes. Ese mismo año, IMS Asociados produce la IMSAI 8080, que incorporaba un microprocesador Intel 8080A/2 Mhz.
Para cerrar con broche de oro ese mismo año nació un gigante: Microsoft, fundado por Bill Gates y Paul Allen.
En marzo de 1976 se origina uno de los mitos de la nueva era: la Apple I. Steve Wozniak y Steve Jobs la construyen en un garage; días después, ambos fundan Apple Computer Co. y en julio sale a la venta su primer modelo que costó 666.66 dólares; en febrero de 1977 las oficinas corporativas dejan la cochera de la casa de Jobs para instalarse en Cupertino, California. En abril de 1977, sale a la venta la Apple II, la primera computadora personal con interfaz gráfica a color. En menos de dos años y medio estos inventores ya habían vendido 50 mil unidades.
En 1979, el mismo año en que los japoneses comienzan a producir vídeojuegos (Taito, Space Invaders), Atari pone a la venta su primera computadora casera: la Atari 400. Un año después, Texas Instruments hizo lo propio (TI99/4A).
¿Pero qué pasaba con el gran gigante, IBM?: en julio de 1980 IBM le pide a Microsoft que desarrolle un sistema operativo para su modelo de PC, próximo a salir, el mismo que un año más tarde daría lugar al sistema operativo XENIX OS, una versión comercial del sistema unix, diseñado para trabajar con microprocesadores Intel 8086, Motorola M6800 y Zilog Z800. Para el mes de octubre Microsoft compró a Seattle Computer Products los derechos para comercializar su sistema operativo dos en menos de 100,000 dólares, al cual se le agregaría la M de Microsoft y se convertiría en el sistema operativo con el que esa empresa lanzaría al mercado su primera computadora personal en 1981. Sin ser la primera, aunque sí la que mejor se comercializó, a partir de entonces y por más de una década, PC sería sinónimo de IBM.
En 1984, por fin, Apple desarrolla la primera Macintosh; el lema que se empleó para promocionarla resulta significativo: for the rest of us, en español: para el resto de nosotros, que invitaba al grueso de la población a ser un usuario de computadoras sin ser especialista, ya que su manejo era totalmente amigable e intuitivo. La primera Macintosh, efectivamente, volvió a la computadora un aparato susceptible de ser empleado por el resto de nosotros, los que no somos ingenieros en electrónica ni genios de la matemática; la aparición de la Mac puede valorarse como el sueño de Engelbart hecho realidad. Al respecto, en 1995, Nicolas Negroponte opinaba:
"Cuando la gente habla del aspecto y sensación que produce una computadora, se está refiriendo a… la interfaz gráfica de usuario (GUI). La GUI fue mejorada enormemente a partir de 1971 en Xerox y, poco después en el MIT. Una década más tarde, estos esfuerzos culminaron en un producto real, cuando Steve Jobs tuvo la sabiduría para introducir la Macintosh, el principal paso hacia adelante en el mercado y, en comparación con ese avance, desde entonces no ha sucedido nada importante. Copiarles la Mac a Apple les llevó más de cinco años a todas las demás empresas…" El softwarePara que pudiera darse el rápido desarrollo de las computadoras que hoy podemos emplear sin ser matemáticos o expertos ingenieros en electrónica o sistemas, fue necesario el desarrollo de software. Pero ¿qué es? En pocas palabras, se trata de un conjunto de instrucciones que le indican a la computadora qué tarea debe realizar. Hay dos tipos básicos de software: los sistemas operativos, que controlan las tareas básicas de la computadora y las llamadas aplicaciones, es decir, las que desempeñan las tareas específicas para las cuales las personas utilizan una máquina —bases de datos, procesadores de palabras, hojas de cálculo, graficadores, editores, etcétera—, sin necesidad de saber programarla (aunque también hay aplicaciones para desarrollar software).
En 1971, el escáner de Tomografía Axial Computarizada (TAC), fue la herramienta de diagnostico más importante desde la invención de los rayos X en 1895. El nuevo aparato tomaba radiografías parciales de todo el cuerpo y permitió, por primera vez, observar los tejidos blandos, como abdomen, pecho y cráneo, sin necesidad de cirugía; cinco años después, un grupo de científicos del Instituto de Tecnología de Massachussets dirigido por el bioquímico Har Gobin creó el primer gen artificial capaz de funcionar en una célula viva. Esto causó impacto en el mundo científico debido a que era completamente manufacturado, es decir, no se había usado ningún gen natural como plantilla.
Por otra parte en ese mismo año de 1976, dos compañías rivales japonesas presentaron dos tipos de vídeo que se convirtieron en la revolución del entretenimiento doméstico: el vídeo Betamax de la sony fue comercializado por primera vez en 1975 pero, finalmente, sucumbió ante su competidor, el vhs.
En julio de 1978 nació en Inglaterra Louise Brown, el primer ser humano concebido fuera del útero. Después los investigadores en Genética, el suizo Illmensee y el norteamericano Hoppe, hicieron un experimento que dio como resultado lo que muchos consideraron el primer clon de un mamífero, se trata de la borrega Dolly.InternetEl mismo equipo de jóvenes universitarios auspiciados por el ARPA y dirigidos por Engelbart, que desarrolló la computación gráfica y la interactiva, hizo realidad también el otro concepto que revolucionaría la computación para inaugurar la era de la informática: la computación de tiempo compartido.
Mientras gente como Alan Key e Ivan Sutherland enfocaron sus esfuerzos a la creación de las interfaces gráficas, otros se dedicaron a lograr que muchos usuarios, por medio de terminales individuales, pudieran interactuar directamente con una computadora central (tiempo compartido). La computadora, una máquina de pensar, se transformaba también en máquina de comunicar.
"Cuando se construye un sistema de computación que permite a 50 o 100 programadores sentarse en una habitación e interactuar individual y directamente con un ordenador principal, se está incorporando automáticamente la posibilidad de formar una comunidad, porque esos programadores van a querer intercambiar experiencias y hacer chistes mientras están haciendo su programación. El sistema de correo electrónico fue una de las características incluidas en los nuevos sistemas de tiempo compartido."
El Xerox PARC, "al mismo tiempo que creaban los prototipos de la computadora personal del futuro, los veteranos de ARPA… no querían perder la conectividad que habían disfrutado con el sistema de tiempo compartido… De modo que diseñaron una red de alta velocidad —la Ethernet— para unir a todos los ordenadores Altos de su edificio. La idea de las redes de área local (LAN) surgió de Ethernet", invento de Bob Metcalfe (1973). El siguiente paso fue obligado: comunicar entre sí, vía telefónica, a las distintas redes locales: en 1969 entra en funcionamiento la primera red de computadoras distantes entre si geográficamente y también la primera que conectó distintas redes locales: la ARPANET, origen directo del medio de comunicación más poderoso con el que la humanidad llegó al siglo XXI Internet.
El año en que fue creada, ARPANET —surgida de la necesidad estrictamente militar de mantener la comunicción en caso de una guerra nuclear— albergaba a una comunidad de alrededor de mil usuarios; en poco más de 20 años se estima que eran poco menos de 10 millones. El crecimiento de ARPANET se debió al uso que las universidades norteamericanas le dieron; el primer nodo de esta red de redes fue el de la UCLA, Harvard y el MIT entraron en línea en 1970 y a mediados del siguiente año más de 30 comunidades universitarias ya estaban conectadas. En 1973, accesan a ARPANET los dos primeros nodos europeos: la Universidad de Londres y el Royal Radar Establishment de Noruega. Además, pronto aparecieron otras comunidades informáticas, también en el mundo de la academia, como la USNET y la BINET (financiada por IBM). En 1983, ARPANET se divide en dos: una red para uso exclusivo de los militares (MILNET) y otra para los académicos, esta red de redes se llamó Internet de ARPA y luego solamente Internet.
Durante los últimos años, la red de redes mundial ha potencializado la utilidad de las líneas telefónicas. De hecho, el surgimiento —aún antes que el fax y popularización del correo electrónico, el rápido crecimiento de la subcultura del chateo —la conversación textual en tiempo real vía Internet— y los grupos de discusión, permiten afirmar que el mundo de la comunicación transitará cada vez más a través de las líneas telefónicas.

1 comentario:

Daniela Bustamante Quijada! dijo...

La Revolucion Informatica es un tema que a todos nos intereza, ya que son los avences que se van dando en las nuevas tecnologia los cuales nos venefician de la mejor manera a nosotros y nos facilita muchisimas cosas.
Es algo impactante que dia con dia se va actualizando y modernizando