MI COMPUTADOR ES TU COMPUTADOR
   
 
  HISTORIA DE LA COMPUTACION
 

RESEÑA HISTORICA.

 


 

En informática, la ciencia del tratamiento automático de la información, se llama or- denador, computadora, computador o PC a un dispositivo electrónico capaz de recibir y almacenar información, ordenarla y hacer operaciones lógicas y matemáticas a muy alta velocidad. Se puede utilizar para ela- borar documentos, enviar y recibir correo electrónico, dibujar, crear efectos visuales y sonoros, maquetación de folletos y libros, manejar la información contable en una em- presa, tocar música, controlar procesos industriales y jugar. 

 La computadora no es invento de alguien en particular, sino el resultado de ideas y realizaciones de muchas personas relacio- nadas con la electrónica, la mecánica, los materiales  semiconductores,  la lógica, el álgebra y la programación. 

Los primeros vestigios de cálculo, por ejemplo, se remontan a 3000 años antes de Cristo (AC). Los Babilonios que habitaron en la antigua Mesopotamia empleaban semi- llas o pequeñas piedras a manera de "cuen- tas" agrupadas en carriles de caña.
 
La palabra cálculo, que significa piedre- cilla, empleada hoy en matemáticas y me- dicina, tiene su origen en el hecho de que antiguamente se usaron piedras pequeñas como elemento natural para contar. En me- dicina se usa para indicar que alguien tiene en el riñon, por ejemplo, formaciones sóli- das a manera de piedrecillas.
 
Posteriormente, en el año 1800 AC, un matemático babilónico inventó los algo- ritmos que permitieron resolver problemas de cálculo numérico. Algoritmo es un con- junto ordenado de operaciones propias de un cálculo.
 
500 años AC los egipcios inventaron el ábaco, un dispositivo para calcular, basado en bolillas atravesadas por alambres; su nom- bre proviene del griego abax, o abakos, que significa tabla o carpeta cubierta de polvo. 
 
Posteriormente, a principios del segundo siglo DC, los chinos perfeccionaron este dis- positivo, al cual le agregaron un soporte tipo bandeja, poniéndole por nombre Saun-pan. Con un ábaco se puede sumar, restar, mul- tiplicar y dividir.
 
En el siglo 16, John Napier (1550-1617), matemático escocés famoso por su inven- ción de los logaritmos, unas funciones ma- temáticas que permiten convertir las mul- tiplicaciones en sumas y las divisiones en restas, inventó un dispositivo de palillos con números impresos que, merced a un inge- nioso y complicado mecanismo, le permi- tía realizar operaciones de multiplicación y división. 
 
En 1642 el físico y matemático francés Blaise Pascal (1623-1662) inventó el pri- mer calculador mecánico. A los 18 años de edad, deseando reducir el trabajo de cálculo de su padre, funcionario de impuestos, fa- bricó un dispositivo de 8 ruedas dentadas en el que cada una hacía avanzar un paso a la siguiente cuando completaba una vuelta. Estaban marcadas con números del 0 al 9 y había dos para los decimales, con lo que podía manejar números entre 000000,01 y
999999,99. Giraban mediante una manivela, con lo que para sumar o restar había que darle el número de vueltas correspondiente en un sentido o en otro.
 
En 1672 el filósofo y matemático alemán Leibnitz (1646-1716) inventó una máquina de calcular que podía multiplicar, dividir y obtener raíces cuadradas en sistema bina- rio. A los 26 años aprendió matemáticas de modo autodidacta y procedió a inventar el cálculo infinitesimal, honor que comparte con Newton.
 
En 1801 el francés Joseph Jacquard (1752-1834), hijo de un modesto obrero tex- til, utilizó un mecanismo de tarjetas perfo- radas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Estas plantillas o moldes metálicos perforados permitían programar las puntadas del tejido, logrando obtener una diversidad de tramas y figuras.
 
En 1822 Charles Babbage, matemático e inventor inglés, ideó una máquina que al- gunos toman como la primera máquina computadora. Hacía operaciones aritmé- ticas y cálculos diversos por medio de un mecanismo de entrada y salida con tarjetas perforadas, una memoria, una unidad de con- trol y una unidad aritmético-lógica. Una de sus características más importantes era que

podía alterar su secuencia de operaciones basándose en el resultado de cálculos an- teriores, algo fundamental en los compu- tadores actuales.
 
Charles Babbage fue maestro de Augus- ta Ada Byron (1815-1851), condesa de Lo- velace, hija del poeta Inglés Lord Byron. Se reconoce a Ada Byron como la primera persona en escribir un lenguaje de progra- mación de carácter general, interpretando las ideas de Babbage.
 
Un poco antes de 1870, William Thom- son Kelvin, matemático y físico escocés, in- ventor de las llantas usadas en bicicletas y au- tos, y también muy estudioso del fenómeno del calor, había elaborado la teoría de una máquina capaz de resolver ecuaciones dife- renciales, pero sólo fue construida 50 años más tarde, en 1925, por Vannevar Bush, un ingeniero eléctrico nacido en Massachusetts (Estados Unidos).
 
En 1879, a los 19 años de edad, Herman Hollerith fue contratado como asistente en las oficinas del censo norteamericano y de- sarrolló un sistema de cómputo mediante tarjetas perforadas en las que los agujeros representaban el sexo, la edad, raza, etc. Gra- cias a la máquina de Hollerith el censo de
1890 se realizó en dos años y medio, cinco menos que el censo de 1880.
 
Hollerith dejó las oficinas del censo en
1896 para fundar Tabulating Machine Com- pany. En 1900 había desarrollado una má- quina que podía clasificar 300 tarjetas por minuto (en vez de las 80 cuando el censo), una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924 fusionó su compañía con otras dos para formar la International Business Machines hoy mun- dialmente conocida como IBM. 
 
1900: Comienzo de la física cuántica. A finales del siglo 19 los científicos esta- ban intrigados por el comportamiento de los cuerpos negros, los cuales, según la física que conocían, absorbían y radiaban energía en toda la gama de frecuencias, cosa que no ocurre con los cuerpos de color. Suponían que la energía era emitida a manera de flu- jo continuo, mayor o menor según la fre- cuencia de radiación electromagnética y la cantidad de calor en el cuerpo, pero estaban equivocados.
 
En 1900 el físico teórico alemán Max Planck aceptó la teoría electromagnética de la luz, que sostenía que la luz era un fe- nómeno ondulatorio y que la materia -que se suponía que contenía pequeños cuerpos cargados eléctricamente, o partículas- irra- diaba energía en la forma de ondas de luz cuando esas partículas cargadas eran acele- radas. Con el objetivo de estudiar la radia- ción de un cuerpo negro, Planck se imagi- nó las partículas cargadas como pequeños osciladores, acelerados y desacelerados re- petidamente de manera uniforme.
 
Para poder calcular el equilibrio de la energía entre los supuestos osciladores y su radiación de entrada y salida, Planck ha- lló que necesitaba suponer la existencia de cuantos, o diminutas divisiones de energía, en vez de una gama continua de energías po- sibles. Por ello, llegó a deducir la definición de un cuanto de energía como la frecuen- cia de la oscilación multiplicada por un diminuto número que no tardó en ser co- nocido como la constante de Planck. Esos supuestos fueron los utilizados por Planck para resolver el problema del cuerpo negro, pero nunca llegó más allá en una interpreta- ción significativa de sus cuantos.

Se denomina cuanto al salto que expe- rimenta la energía de un corpúsculo cuan- do absorbe o emite radiación. Dicha ener- gía es proporcional a la frecuencia de la ra- diación.
 
En 1905 Einstein, basándose en el tra- bajo de Planck, publicó su teoría sobre el fenómeno conocido como efecto fotoeléc- trico y demostró que las partículas cargadas
–que en esos tiempos se suponían que eran electrones- absorbían y emitían energía en cuantos finitos que eran proporcionales a la frecuencia de la luz o radiación, fenóme- no que hoy se está aprovechando para crear los nuevos computadores cuánticos, en los que ya no se habla de bits que representan
1 ó 0, sino de qubits que pueden asumir a la vez dos estados opuestos.
 
El paso sustancial hacia la nueva teoría cuántica de los átomos se le debe al físico alemán Werner Heisenberg, quien después de haber inventado la mecánica matricial, en 1925, junto con Max Born y Pascual Jordan, elaboró una versión completa de la nueva teoría cuántica, una nueva dinámica que servía para calcular las propiedades de los átomos, igual que había servido la me- cánica de Newton para calcular las órbitas de los planetas.
 
Para concebir el mundo cuántico, Hei- senberg y Niels Bohr se esforzaron por hallar una estructura nueva que estuviera de acuerdo con la nueva mecánica cuánti- ca. Heisenberg descubrió, cuando intentaba resolver estos problemas interpretativos, el
«principio de incertidumbre», el cual reve- laba una característica distintiva de la me- cánica cuántica que no existía en la mecá- nica newtoniana. 
 
En 1938 el alemán Konrad Zuse termi- nó la primera máquina binaria para calcular, y la llamó Z1.
 
A comienzos de los años 30, John Vin- cent Atanasoft, un norteamericano docto- rado en física teórica, hijo de un ingenie- ro eléctrico emigrado de Bulgaria y de una maestra de escuela, se encontró con que los problemas que tenía que resolver requerían una excesiva cantidad de cálculo.Aficionado a la electrónica y conocedor de la máquina de Pascal y las teorías de Babbage, empezó a considerar la posibilidad de construir un calculador digital. Decidió que la máquina habría de operar en sistema binario, y hacer los cálculos de modo distinto a como los rea- lizaban las calculadoras mecánicas.
 
Con 650 dólares donados por el Concejo de Investigación del Estado de lowa, contrató la cooperación de Clifford Berry, estudiante de ingeniería, y los materiales para un mo- delo experimental. Posteriormente recibió otras donaciones que sumaron 6460 dóla- res. Este primer aparato fue conocido como ABC Atanasoff- Berry-Computer.
 
Prácticamente al mismo tiempo que John VincentAtanasoft, el ingeniero John Mau- chly, director en ese momento del Depar- tamento de física del Ursine College cerca de Filadelfia, se había encontrado con los mismos problemas en cuanto a velocidad de cálculo, y estaba convencido de que ha- bría una forma de acelerar el proceso por medios electrónicos. Al carecer de medios económicos, construyó un pequeño calcu- lador digital y se presentó al congreso de la AAAS (Asociación Americana para el Avance de la Ciencia) para presentar un in- forme sobre el mismo. Allí, en diciembre de 1940, se encontró con Atanasoff, y el intercambio de ideas que tuvieron originó

una disputa sobre la paternidad de la com- putadora digital.
 
En 1941 Mauchly se matriculó en unos cursos en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a J. Presper Eckert, un ins- tructor de laboratorio. La escuela Moore tra- bajaba entonces en un proyecto conjunto con el ejército para realizar unas tablas de tiro para armas balísticas. La cantidad de cálcu- los necesarios era inmensa, tanto que se de- moraba unos treinta días en completar una tabla mediante el empleo de una máquina de cálculo analógica. Aun así, esto era unas 50 veces más rápido de lo que tardaba un hom- bre con una sumadora de sobremesa.
 
Mauchly publicó un artículo con sus ideas y las de Atanasoff, lo cual despertó el inte- rés de Lieutenant Herman Goldstine, un oficial de la reserva que hacía de interme- diario entre la universidad y el ejército, el cual consiguió interesar al Departamento de Ordenación en la financiación de una com- putadora electrónica digital. El 9 de abril de 1943 se autorizó a Mauchly y Eckert ini- ciar el desarrollo del proyecto. Se le llamó ENIAC (Electronic Numerical integrator and Computer) y comenzó a funcionar en las instalaciones militares norteamericanas del campo Aberdeen  Proving Ground en Agosto de 1947. La construcción tardó 4 años y costó $486.804,22 dólares (el equi- valente actual a unos tres millones de dó- lares por menos poder de cómputo del que actualmente se consigue en las calculadoras de mano).
 
El ENIAC tenía 19.000 tubos de vacío,
1.500 relés, 7.500 interruptores, cientos de miles de resistencias, condensadores e in- ductores y 800 kilómetros de alambres, fun- cionando todo a una frecuencia de reloj de 100.000 ciclos por segundo. Tenía 20 acu- muladores de 10 dígitos, era capaz de sumar, restar, multiplicar y dividir, y tenía tres ta- blas de funciones. La entrada y la salida de datos se realizaba mediante tarjetas perfo- radas. Podía realizar unas 5.000 sumas por segundo (lo cual es muy poco, comparado con la capacidad de los computadores ac- tuales). Pesaba unas 30 toneladas y tenía un tamaño equivalente al de un salón de clases. Consumía 200 kilovatios de potencia eléc- trica (una computadora personal moderna consume apenas 200 vatios y es más pode- rosa) y necesitaba un equipo de aire acondi- cionado para disipar el gran calor que pro- ducía. En promedio, cada tres horas de uso fallaba una de las válvulas.
 
Lo que caracterizaba al ENIAC como computadora moderna no era simplemente su velocidad de cálculo, sino el que permitía realizar tareas que antes eran imposibles.
 
En 1941 Konrad Suze presentó el Z3, el primer computador electromagnético pro- gramable mediante una cinta perforada. Tenía dos mil electroimanes, una memoria de 64 palabras de 22 bits, pesaba mil ki- los y consumía cuatro mil watts. Una adi- ción demoraba 0,7 segundos, mientras que en una multiplicación o división tardaba 3 segundos.
 
En 1943 fue desarrollado en Inglaterra el primer computador electrónico, llamado Colossus, por un equipo de matemáticos, in- genieros eléctricos y agentes de inteligencia del ejército británico, dirigido por el mate- mático Alan Turing, un pionero en el de- sarrollo de la lógica de los computadores modernos, y en el tema de la inteligencia artificial. Colossus se instaló en Bletchley Park, una vieja casa solariega ubicada a la mitad del camino entre Cambridge y Oxford,
 
y permitía descifrar automáticamente en po- cos segundos los mensajes secretos de los nazis durante la Segunda Guerra Mundial, cifrados por la máquina Enigma. El com- putador competidor más cercano, el ENIAC norteamericano, comenzó a funcionar dos años más tarde, en 1945.
 
Entre 1939 y 1944, Howard Aiken de la Universidad de Harvard, en colaboración con IBM, desarrolló el Mark 1, conocido como Calculador Automático de Secuencia Controlada. Era una computadora electro- mecánica de 16 metros de largo y unos 2 de alto; tenía 700.000 elementos móviles y varios centenares de kilómetros de cables; podía realizar las cuatro operaciones bási- cas y trabajar con información almacenada en forma de tablas; operaba con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en un segundo.
 
El Mark 1, y las versiones que poste- riormente se realizaron del mismo, tenían el mérito de asemejarse al tipo de máquina ideado por Babbage, aunque trabajaban en código decimal y no en binario.
 
El avance  que dieron  estas  máquinas electromecánicas a la informática fue rápi- damente ensombrecido por el ENIAC con sus circuitos electrónicos.
 
Durante la II Guerra Mundial, Norbert Wiener, matemático nacido en Missouri, trabajó con la defensa antiaérea norteame- ricana y estudió la base matemática de la comunicación de la información y del con- trol de un sistema para derribar aviones. En 1948 publicó sus resultados en un libro que tituló CYBERNETICS (Cibernética), palabra que provenía del griego "piloto", y que se usó ampliamente para indicar auto- matización de procesos. 
 
En 1946 el matemático húngaro John Von Neumann propuso una versión modi- ficada del ENIAC; el EDVAC (Electronic Discrete Variable Automatic Computer), que se construyó en 1952. Esta máquina presentaba dos importantes diferencias respecto al ENIAC: En primer lugar em- pleaba aritmética binaria, lo que simplifi- caba enormemente los circuitos electróni- cos de cálculo. En segundo lugar, permitía trabajar con un programa almacenado. El ENIAC se programaba conectando cente- nares de clavijas y activando un pequeño número de interruptores. Cuando había que resolver un problema distinto, era necesario cambiar todas las conexiones, proceso que llevaba muchas horas.
 
Von Neumann propuso cablear una serie de instrucciones y hacer que éstas se ejecu- tasen bajo un control central. Además pro- puso que los códigos de operación que habían de controlar las operaciones se almacenasen de modo similar a los datos en forma binaria. De este modo el EDVAC no necesitaba una modificación del cableado para cada nuevo programa, pudiendo procesar instrucciones tan deprisa como los datos. Además, el pro- grama podía modificarse a sí mismo, ya que las instrucciones almacenadas, como datos, podían ser manipuladas aritméticamente.
 
Luego de abandonar la universidad, Ec- kert y Mauchly fundaron su propia com- pañía, la cual fue absorbida por Remington Rand. En 1951 entregaron a la Oficina del Censo su primera computadora: el UNIVAC- I. Posteriormente aparecería el UNIVAC- II con memoria de núcleos magnéticos, lo que le haría superior a su antecesor, pero, por diversos problemas, esta máquina no vio la luz hasta 1957, fecha en la que había perdido su liderazgo en el mercado frente al 705 de IBM.

En 1953 IBM fabricó su primera com- putadora para aplicaciones científicas, y la primera que usó memoria de núcleos de fe- rrita: la IBM 705.
 
En 1958 comenzó el empleo de circui- tos transistorizados en las computadoras, en vez de válvulas al vacío. Un transistor puede tener el tamaño de una lenteja mientras que un tubo de vacío tiene un tamaño mayor que el de un cartucho de escopeta. Mientras que las tensiones de alimentación de los tubos estaban alrededor de los 300 voltios, las de los transistores vienen a ser de 10 voltios, con lo que los demás elementos de circui- to también pueden ser de menor tamaño, al tener que disipar y soportar tensiones mu- cho menores. El transistor es un elemento constituido fundamentalmente por silicio o germanio. Su vida media es prácticamente ilimitada y en cualquier caso muy superior a la del tubo de vacío.
 
En 1962 el mundo estuvo al borde de una guerra nuclear entre la Unión Soviética y los Estados Unidos, en lo que se denominó “la crisis de los misiles de Cuba”. A causa de esto, una de las preocupaciones de las Fuer- zas Armadas de los Estados Unidos era con- seguir una manera de que las comunicaciones fuesen más seguras en caso de un eventual ataque militar con armas nucleares.
 
Como solución entró en consideración solamente  el proceso  de datos en forma electrónica. Los mismos datos se deberían disponer en diferentes computadores aleja- dos unos de otros. Todos los computadores entrelazados deberían poder enviarse en un lapso corto de tiempo el estado actual de los datos nuevos o modificados, y cada uno de- bería poder comunicarse de varias maneras con cada otro. Dicha red también debería funcionar si una computadora individual o cierta línea fuera destruida por un ataque del enemigo.
 
Ese mismo año 1962, J.C.R. Licklider escribió un ensayo sobre el concepto de Red Intergaláctica, donde todo el mundo estaba interconectado para acceder a programas y datos desde cualquier lugar del planeta. En Octubre de ese año, Lickider es el primer director de ARPA (Advanced Research Pro- jects Agency), o Agencia de Proyectos de Investigación Avanzada, una organización científica creada en 1958 y cuyos resulta- dos de investigación eran destinados a fi- nes militares.
 
En 1963 un comité Industria-Gobierno desarrolló el código de caracteres ASCII, (se pronuncia asqui), el primer estándar universal para intercambio de información (American Standard Code for Information Interchange), lo cual permitió que máqui- nas de todo tipo y marca pudiesen inter- cambiar datos.
 
En 1964 el IBM 360 marcó el comienzo de la tercera generación de computadoras. Las placas de circuito impreso con múlti- ples componentes pasan a ser reemplazadas por los circuitos integrados. Estos elementos son unas plaquitas de silicio llamadas chips, sobre cuya superficie se depositan por me- dios especiales unas impurezas que hacen las funciones de diversos componentes elec- trónicos. Esto representó un gran avance en cuanto a velocidad y, en especial, en reduc- ción de tamaño. En un chip de silicio no mayor que un centímetro cuadrado caben
64.000 bits de información. En núcleos de ferrita esa capacidad de memoria puede re- querir cerca de un litro en volumen.
 
En 1964, investigadores  del Instituto
Tecnológico de Massachusetts (MIT), de
 
la Corporación Rand y del Laboratorio Nacional de Física de la Gran Bretaña, en- tre los que se destacan Paul Baran, Donald Davies, Leonard Kleinrock, presentaron simultáneamente soluciones a lo propuesto por las Fuerzas Armadas norteamericanas. Y ese mismo año la Fuerza Aérea le asignó un contrato a la Corporación RAND para la llamada “red descentralizada”. Ese pro- yecto fracasó después de muchos intentos y nunca fue realizado, pero la idea de una red que no dependiese de un solo punto central y con la transferencia de datos por paquete se quedó anclada en la cabeza de muchas personas.
 
Paul Baran, quien por ese entonces tra- bajaba con Rand Corporation, fue uno de los primeros en publicar en Data Commu- nications Networks sus conclusiones en for- ma casi simultánea con la publicación de la tesis de Kleinrock sobre teoría de líneas de espera. Diseñó una red de comunicaciones que utilizaba computadores y no tenía nú- cleo ni gobierno central. Además, asumía que todas las uniones que conectaban las redes eran altamente desconfiables.
 
El sistema de Baran era algo así como una oficina de correos diseñada por un loco, que trabajaba con un esquema que partía los mensajes en pequeños pedazos y los metía en sobres electrónicos, llamados "paquetes", cada uno con la dirección del remitente y del destinatario. Los paquetes se lanzaban al seno de una red de computadores inter- conectados, donde rebotaban de uno a otro hasta llegar a su punto de destino, en el cual se juntaban nuevamente para recomponer el mensaje total. Si alguno de los paquetes se perdía o se alteraba (y se suponía que algu- nos se habrían de dislocar), no era proble- ma, pues se volvían a enviar.
 
En 1966 la organización científica ARPA se decidió a conectar sus propios computa- dores a la red propuesta por Baran, tomando nuevamente la idea de la red descentralizada. A finales de 1969 ya estaban conectados a la red ARPA los primeros cuatro computa- dores, y tres años más tarde ya eran 40. En aquellos tiempos era, sin embargo, la red propia de ARPA. En los años siguientes la red fue llamada ARPANET (red ARPA), y su uso era netamente militar.
 
En 1966, un grupo de investigadores de los Laboratorios Bell (hoy AT&T) desa- rrolló un sistema  operativo  experimental llamado MULTICS (Información multi- plexada y Sistema de Computación) para usar con una computadora General Electric. Los laboratorios Bell abandonaron el pro- yecto, pero en 1969, Ken Thompson, uno de los investigadores del MULTICS, diseñó un juego para dicha computadora, llamado Space Travel (Viaje Espacial), que simu- laba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson volvió a escribirlo, ahora para una compu- tadora DEC (Digital Equipment Corpora- tion), aprovechando que, junto con Ritchie y Rudd Canaday, había creado también un sistema operativo multitarea, con sistema de archivos, intérprete de órdenes y algunas utilidades para la computadora DEC. Se le llamó UNICS (Información Uniplexada y Sistema de Computación) y podía soportar dos usuarios simultáneamente. En 1970 se renombró Unix. Fue un sistema operativo bueno y seguro, pero su licencia de uso era muy costosa, lo cual lo ponía fuera del al- cance de muchas personas. Esto motivaría luego la creación del Proyecto GNU para el desarrollo de software libre.
 
En 1969 la organización  ARPA junto con la compañía Rand Corporation desa-
 
rrolló una red sin nodos centrales basada en conmutación de paquetes tal y como había propuesto Paul Baran. La información se dividía en paquetes y cada paquete conte- nía la dirección de origen, la de destino, el número de secuencia y una cierta informa- ción. Los paquetes al llegar al destino se ordenaban según el número de secuencia y se juntaban para dar lugar a la información. Al viajar paquetes por la red, era más difícil perder datos ya que, si un paquete concreto no llegaba al destino o llegaba defectuoso, la computadora que debía recibir la infor- mación sólo tenía que solicitar a la compu- tadora emisora el paquete que le faltaba. El protocolo de comunicaciones se llamó NCP (Network Control Protocol). Esta red tam- bién incluyó un gran nivel de redundancia (repetición) para hacerla más confiable.
 
ARPANET conectó los computadores centrales por medio de procesadores de pa- sarela, o routers, conocidos como Interface Message Processors (IMPs). El 1 de Sep- tiembre de 1969 el primer IMP llegó a UCLA. Un mes después el segundo fue instalado en Stanford. Despues en UC Santa Barbara y después en la Universidad de Utah.
 
En 1971 se creó el primer programa para enviar correo electrónico. Fue Ray Tomlin- son, del BBN, y combinaba un programa in- terno de correo electrónico y un programa de transferencia de archivos. También en este año un grupo de investigadores del MIT presentaron la propuesta del primer “Pro- tocolo para la transmisión de archivos en Internet”. Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de ficheros (FTP).
 
Las instituciones académicas se intere- saron por estas posibilidades de conexión. 
 
La NSF (National Science Foundation) dio acceso a sus seis centros de supercompu- tación a otras universidades a través de la ARPANET. A partir de aquí se fueron co- nectando otras redes, evitando la existencia de centros, para preservar la flexibilidad y la escalabilidad.
 
El 22 de mayo de 1973 Bob Metcalfe propuso oficialmente Ethernet, una solución tecnológica que permite las conexiones y el intercambio de información en una red de computadoras pequeñas. Ethernet fue crea- da por Metcalfe en el Xerox PARC (Centro de investigaciones de Palo Alto) y por ello se le reconoce como coinventor de la futu- ra Internet.
 
En 1973 ARPA cambió su nombre por DARPA, se inició un programa para in- vestigar técnicas y tecnologías para inter- conectar redes de tipos diferentes y se lan- zaron dos nuevas redes: PRNET por Packet Radio de la Universidad de Hawaii, diseña- da por Norm Abramson, conectando siete computadores en cuatro islas, y SATNET, una red conectada vía satélite, enlazando dos naciones: Noruega e Inglaterra.
 
Bob Kahn y Larry Roberts se propu- sieron interconectar a DARPA con PRNET y SATNET, con diferentes interfaces, tama- ños de paquetes, rotulados, convenciones y velocidades de transmisión. Y en 1974, Vint Cerf, primer Presidente de la Internet So- ciety, y conocido por muchos como el padre de Internet, junto con Bob Kahn, publica- ron “Protocolo para Intercomunicación de Redes por paquetes”, donde especificaron en detalle el diseño del Protocolo de con- trol de transmisión  (TCP, Transmission Control Protocol), que se convirtió en el estándar aceptado. La implementación de TCP permitió a las diversas redes conec-

tarse en una verdadera red de redes alrede- dor del mundo.
 
En ese mismo año se creó el sistema Ethernet para enlazar a través de un cable único a las computadoras de una red local.
 
En  enero  de  1975  la  revista  Popular
Electronics hizo el lanzamiento del Altair
8800, la primera computadora personal reco- nocible como tal. Tenía una CPU Intel de 8 bits y 256 bytes de memoria RAM. El código de máquina se introducía por medio de inte- rruptores montados en el frente del equipo, y unos diodos luminosos servían para leer la salida de datos en forma binaria. Costaba
400 dólares, y el monitor y el teclado había que comprarlos por separado.
 
En este mismo año 1975 se fundó Mi- crosoft. Y al año siguiente Steve Jobs y Steve Wozniak comienzan en un garaje lo que sería Apple, la fábrica de PCs identifi- cados con una manzanita.
 
En 1978 se ofreció la primera versión del procesador de palabras WordStar.
 
En enero de 1979 Daniel Fylstra creó la CalcuLedger, la primera hoja de cálculo. En ese mismo año Dan Bricklin y Bob Franks- ton crearon la hoja de cálculo VisiCalc para la computadora APPLE II, que tuvo que ver mucho con el auge de las computadoras personales. Esto dio origen a Multiplan de Microsoft, a Lotus 1-2-3 (en 1982), a Quat- tro Pro y Excel.
 
También en 1979, ARPA creó la primera comisión de control de la configuración de Internet y en 1981 se terminó de definir el protocolo TCP/IP (Transfer Control Proto- col / Internet Protocol), el cual ARPANET aceptó en 1982 como estándar, sustituyendo a NCP. Son las primeras referencias a Internet, como “una serie de redes conectadas entre sí, específicamente aquellas que utilizan el protocolo TCP/IP”. Internet es la abrevia- tura de Interconnected Networks, es decir, Redes interconectadas, o red de redes.
 
En octubre de 1980 la IBM comenzó a buscar un sistema operativo para la nueva computadora personal que iba a lanzar al mercado, y Bill Gates, quien por ese en- tonces se había retirado de la universidad y junto con su amigo Paul Allen había desa- rrollado una versión de Basic para la com- putadora Altair, basado en otro lenguaje Ba- sic de dominio público, convenció en 1981 a IBM de que tenía uno casi terminado y negoció en millones de dólares su sistema operativo de disco MS-DOS (Disk Opera- ting System), sin tenerlo realmente. Ya con este contrato, compró por $50.000 dólares el QDOS (Quick-and-Dirty OS -Sistema Ope- rativo Sucio y Rápido) de Seattle Computing. Este producto era una copia del CP/M de Gary Kildall, un amigo de Gates.
 
En 1981 IBM presentó la primera com- putadora personal (PC) reconocida popular- mente como tal, con procesador Intel 8088 y el sistema operativo DOS.
 
En 1983 IBM presentó el PC XT, con un procesador 8088 de 4,77 MHz de veloci- dad y un disco duro de 10 MB. Ese mismo año, Microsoft presentó la versión 1.0 del procesador de palabras Word para DOS y ARPANET se separó de la red militar que la originó, de modo que, ya sin fines milita- res, se puede considerar esta fecha como el nacimiento de Internet. Es el momento en que el primer nodo militar se desliga, dejan- do abierto el paso para todas las empresas, universidades y demás instituciones que ya por esa época poblaban la red.
 
En 1983 Richard Stallman, quien por ese entonces trabajaba en el Instituto Tec- nológico de Massachussets (MIT), decidió dedicarse al proyecto de software libre que denominó GNU, acrónimo de la expresión Gnu’s Not Unix (GNU no es Unix), el cual es compatible con Unix.
 
La palabra “libre” en este caso indica libertad (en inglés se usa la misma expre- sión “free” para libre y gratuito). Se puede o no pagar un precio por obtener software GNU, y una vez que se obtiene hay libertad de copiar el programa y darlo a otros, liber- tad de cambiar el programa como se quiera (por tener acceso completo al código fuen- te) y libertad de distribuir una versión me- jorada, ayudando así a desarrollar la comu- nidad GNU. Si redistribuyes software GNU puedes cobrar una cuota por el acto físico de efectuar la copia, o puedes regalarla.
 
Las personas deseosas de ejecutar Unix en los PCs, y que no podían pagar el precio de la licencia de éste, podían instalar Mi- nix, un sistema operativo parecido a Unix, desarrollado por el profesor Andrew Ta- nenbaum para enseñarle a sus alumnos acerca del diseño de sistemas operativos. Sin embargo, debido al enfoque puramente educacional del Minix, Tanenbaum no per- mitía que éste fuera modificado demasiado, ya que esto podía hacerlo complejo y difí- cil de entender.
 
En 1984 IBM presentó el PC AT, un sistema con procesador Intel 286, bus de expan- sión de 16 bits y 6 MHz de velocidad. Tenía
512 KB de memoria RAM, un disco duro de
20 MB y un monitor monocromático. Precio en ese momento: 5.795 dólares.
 
En 1985 Microsoft lanzó el sistema ope- rativo Windows, el cual permitió a las computadoras compatibles IBM manejar tam- bién el ambiente gráfico, usual en los computadores Mac de Apple.
 
En septiembre de 1986 Compaq lanzó la primera computadora basada en el proce sador Intel 80386, adelantándose a IBM.
 
En 1990 Tim Berners-Lee ideó el hiper- texto para crear el World Wide Web (www) una nueva manera de interactuar con Inter- net. Su sistema hizo mucho más facil com- partir y encontrar datos en Internet. Berners- Lee también creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.
 
En 1991 Linus Torvalds, un estudiante de Ciencias de la Computación de la Uni- versidad de Helsinki (Finlandia), al ver que no era posible extender las funciones del Minix, decidió escribir su propio sistema operativo compatible con Unix, y lo llamó Linux (el parecido con su nombre personal es mera coincidencia). Miles de personas que querían correr Unix en sus PCs vieron en Linux su única alternativa, debido a que a Minix le faltaban demasiadas cosas. El proyecto GNU que Stallman había inicia- do hacía ya casi diez años había producido para este entonces un sistema casi completo, a excepción del kernel, que es el programa que controla el hardware de la máquina, el cual desarrolló Torvalds y agregó al GNU para formar Linux.
 
Linuxes un sistema operativo libre, no requiere licencia. Es más estable que Win- dows, de arquitectura abierta (puede ser adaptado por el usuario a sus propias nece- sidades) y es poco atacado por los virus. A mediados de los años noventa Linux se ha- bía convertido ya en el Unix más popular entre la gente que buscaba alternativas al
 
Windows de Microsoft. Hoy en día existen varias distribuciones de Linux, tales como Caldera, Corel, Debian, Mandrake, Re- dHat, SuSe, Slackware y Stampede. En Internet se puede encontrar el enfoque y la facilidad de uso de cada una de estas distri- buciones Linux.
 
En 1993 Charles H. Bennet de IBM; Gilles Brassard, Claude Crépeau y Richard Joasza de la Universidad de Montreal; Asher Peres del Instituto de Tecnología de Israel (Technion) y William Wootters del Willia- ms College, descubrieron que un rasgo de la mecánica cuántica, llamado enlazamiento, podía utilizarse para superar las limitaciones de la teoría del cuanto (quantum) aplicada a la construcción de computadoras cuánticas y a la teleportación (teleportation).
 
Desde  1995,  año  del  lanzamien- to de  Windows  95,  Microsoft  ha  sacado al mercado varias versiones mejoradas,  y  supuestamente  corregidas,  tales  como  Windows  98,  2000  Server,
2000  Professional,  NT Workstation, NT SMB  (Small  Business  Server),  ME, XP  Professional,  XP  Home  Edition y Windows Longhorn.Anteriores a estas ver- siones estuvieron Windows 1.0, Windows
3.10 y Windows for Workgroups.
 
En octubre de 1996 se creó Internet 2, mucho más veloz y de banda más ancha que la Internet original, ideal para manejo de ar- chivos grandes y aplicaciones en vídeocon- ferencia, telemedicina y muchas otras cosas. Fue resultado de la unión de 34 universida- des de Estados Unidos, las cuales formaron la University Corporation for Advanced In- ternet Development (UCAID). En ensayos a finales del 2003 se logró enviar de Europa a América en sólo siete segundos el equiva- lente a una película de DVD completa.
 
El 15 de agosto del 2000, Isaac Chuang, investigador de los laboratorios de IBM en Almaden (Estados Unidos), durante una conferencia en la Universidad de Stanford, describió los experimentos que su equipo llevó a cabo para construir una computa- dora cuántica y mostró el potencial que esta tecnología  ofrece  para la resolución de problemas complejos. Por ejemplo, con una computadora cuántica se podrán resol- ver en un minuto problemas que hoy, con una computadora clásica, se tardaría cien- tos de años.
 
Una computadora cuántica (quantum computer) utiliza las leyes de la mecáni- ca cuántica para resolver problemas. Son leyes muy raras que hasta hace muy poco se usaban para crear paradojas, pero que, a partir de los estudios de Planck y del físico vienés Erwin Schrödinger, se comenzó a averiguar que se podían aplicar a la com- putación. Una de ellas dice: "Las cosas no están definidas, a menos que las observes". Otra ley argumenta: "Un gato puede estar vivo y muerto a la vez". Una tercera ley, resultado de la unión de la primera y la se- gunda, expresa: "un gato deja de estar vivo y muerto a la vez cuando uno lo observa. En ese momento o está vivo, o está muer- to. Pero si no se le observa, su estado no está definido". Una cuarta ley afirma: "una partícula puede pasar por dos agujeros a la vez, y los dos agujeros pueden estar en cual- quier sitio".
 
El prototipo de computadora  cuántica construida por IBM constaba de 5 átomos, se programaba mediante pulsos de radio- frecuencia y su estado podía ser leído me- diante instrumentos de resonancia magnéti- ca, similares a los empleados en hospitales y laboratorios de química. Cada uno de los átomos de flúor que la componían actuaba
 
como un qubit. Un qubit es similar a un bit en una computadora electrónica tradicional, pero con una diferencia: merced al curioso comportamiento de las partículas, puede es- tar en ambos estados simultáneamente, y dos partículas pueden estar relacionadas entre sí, de manera que aunque en un momento dado se desconoce el estado de cada una de ellas, se sabe que sus estados son opuestos.
 
En el 2003 comenzó a circular la versión de prueba de Windows Longhorn, sucesor del XP, y cuyo nombre traducido al español sería algo así como “Windows cachón”.
 
Y mientras se trabaja en el diseño co- mercial de los computadores cuánticos, los cuales harán parecer a los PC binarios como de la época de las cavernas, por su mayor capacidad de memoria y extraordinaria ve- locidad, se labora también en el campo de los monitores de pantalla plana y de imagen tridimensional (3D), así como en la telepor- tación de partículas con tecnología cuántica, inicio de lo que será la teletransportación de objetos vista en la ciencia ficción.
 

 

UN CLICK DE TU MANO
 
Nombre de usuario:
Contraseña:
CONOCE +
 
CONOCE MAS DE TU PC?
DIVIERTATE !!!!!!!
 
DIVIERTATE APRENDIENDO MAS SOBRE TU COMPUTADOR
TODO LOS TRUCOS PARA XP
 
CONOCE TODOS LOS TRUCOS DE WINDOWS XP, VISTA
WINDOWS 7 Y MUCHO MAS....... CONTACTENOS A TRAVES DE LOS CORREOS QUE APARESEN EN PANTALLA.
CONSTRUYA TU PROPIO PC
 
AQUI ESTA TODAS LAS HERRAMIENTAS NECESARIAS PARA QUE ARMES TU PC Y LO PUEDAS DISFRUTAR AL
MAXIMO
 
Este sitio web fue creado de forma gratuita con PaginaWebGratis.es. ¿Quieres también tu sitio web propio?
Registrarse gratis