¿Qué Es Una Computadora? La Historia del Computador (Resumen)

Por favoringresa o regístrate para dar Me gusta.
Ensayos
ENIAC Historia de la computadora

Una computadora es una máquina electrónica que puede resolver diferentes problemas, procesar, almacenar y recuperar datos, y realizar cálculos de forma más rápida y eficiente que los humanos.

La palabra computadora se deriva de la palabra latina “computare” que significa “calcular”, “contar”, “resumir” o “pensar juntos”. Entonces, exactamente la palabra computadora significa “dispositivo que realiza cálculos”.

Que es una computadora
Que es una computadora

¿Por Qué se Creó la Computadora?

La computadora no nació para entretener o para usar correo electrónico, sino por la necesidad de resolver una grave crisis en el procesamiento de números. En 1880, la población de los Estados Unidos había crecido tanto que tardaron más de siete años en tabular los resultados del censo de los EE. UU. El gobierno buscaba una manera más rápida de hacer el trabajo, dando lugar a computadoras basadas en tarjetas perforadas que ocupaban salas enteras.

Historia de la invención de las computadoras

Los Primeros dispositivos informáticos

Charles Babbage, con la inspiración de las calculadoras de escritorio desarrolladas por Thomas de Colmar, había despertado su interés por el desarrollo de las computadoras. En el año 1812, reconoció que para muchos cálculos largos era necesario crear tablas matemáticas, que eran solo una mera secuencia de acciones esperadas que se repetían continuamente. A partir de esta evaluación, él asumió que debería ser posible hacer estos cálculos automáticamente. Más tarde, comenzó a diseñar una máquina de cálculo mecánico automático que denominó como máquina diferencial. En el año 1823, inició la invención de ese maquina diferencial con el apoyo financiero del gobierno británico. Fue diseñada principalmente para ser completamente desempeñada por sí misma y ser comandada por un programa de tutoría fija, imprimiendo tablas de los resultados. A pesar de que tenía una flexibilidad y aplicabilidad limitada, la máquina diferencial fue un gran avance para aquellos días. Babbage pronto desarrolló una máquina analítica, denominada “Maquina Diferencial Número 2”, que reemplazó a su antecesora en poco tiempo.

En el año 1890, con las computadoras, las tarjetas perforadas fueron utilizadas con éxito por Herman Hollerith y James Powers, que trabajaban para la Oficina del Censo de EE.UU. Desarrollaron algunos dispositivos que podían leer los datos perforados en las tarjetas automáticamente sin asistencia humana. A través del desarrollo de estas funciones, se lograron varias mejoras como el flujo de trabajo mejorado; los errores de lectura se redujeron drásticamente y mayormente se podían utilizar un cúmulo de tarjetas perforadas para acceder fácilmente a la memoria accesible de máximo tamaño. Estos beneficios fueron puestos a prueba en algunas empresas comerciales como IBM, Remington y Burroughs, etc.

La innovación de las computadoras digitales aumentó debido a la necesidad de estos equipos en las guerras, para que realizaran tareas a altas velocidades. En el año 1942 con sus asistencias, esto fue desarrollado por John Eckert y nombrado como ENIAC, acrónimo de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico) utilizado por militares para la trayectoria de armas usando tablas. El mecanismo de esta computadora se desarrolló utilizando 1800 tubos de vacío que podían aceptar palabras numéricas de 10 dígitos decimales y realizar la multiplicación de dos números a una velocidad de 300 por segundo. Este dispositivo físicamente ocupa 1700 metros cuadrados y consume una electricidad de 180.000 vatios. Esta computadora digital electrónica es 1000 veces más rápida que los desarrollos previos, ya que está integrada con programas formados con instrucciones para desempeñar y controlar el flujo de datos. Por lo tanto, por sus características, esta computadora fue considerada como la primera computadora digital electrónica de alta velocidad en 1946.

ENIAC Historia de la computadora
ENIAC

En cuanto a las características de la computadora electrónica digital, hay preposiciones para construir computadoras más rápidas con altas velocidades que desempeñen muchas otras tareas. Von Neumann, basado en el concepto de la técnica de almacenamiento de programas, llevó a las computadoras de generaciones futuras a una velocidad de procesamiento relativamente más alta que las computadoras electrónicas digitales anteriores. Esta persona, hizo que para que se pudiese cumplir 1000 operaciones por segundo y almacenar las instrucciones del programa junto con los datos, introdujo la instrucción de máquina de transferencia de control condicional. Con el ensamblaje de la instrucción de máquina, se desempeñó el programa para el almacenamiento en unidades separadas utilizadas colectivamente para una computadora de propósito general que tiene memoria. Esto condujo al avance de la computadora moderna electrónica programada en 1947 junto con la RAM. La capacidad de la memoria RAM era de 1000 palabras con una accesibilidad de 0,5 milisegundos. Esta es la primera generación de computadoras.

Computadoras Analógicas

Una computadora analógica es cualquier clase de dispositivo en la cual las cantidades físicas son continuamente variables tales como el potencial eléctrico, la presión del fluido o el movimiento mecánico, y se representan de una manera análoga a las cantidades correspondientes en el problema a resolver. El sistema analógico se configura de acuerdo con las condiciones iniciales y luego se le permite cambiar libremente. Las respuestas al problema se obtienen midiendo las variables en el modelo analógico.

Las primeras computadoras análogas eran máquinas de propósito especial, como por ejemplo el predictor de mareas desarrollado en 1873 por William Thomson (más tarde conocido como Lord Kelvin). En la misma línea, A.A. Michelson y S.W. Stratton construyeron en 1898 un analizador de armónicos con 80 componentes. Cada uno de estos era capaz de generar un movimiento sinusoidal, que podía multiplicarse por factores constantes mediante el ajuste de un fulcro en las palancas. Los componentes se agregaban por medio de resortes para producir una resultante. Otro hito en el desarrollo de las computadoras analógicas modernas fue la invención del llamado analizador diferencial por parte de Vannevar Bush un ingeniero eléctrico estadounidense y sus colegas, a principios de la década de 1930. Esta máquina, que usaba integradores mecánicos (engranajes de velocidad variable) para resolver ecuaciones diferenciales, fue el primer dispositivo práctico y confiable de su tipo.

La mayoría de las computadoras analógicas electrónicas actuales funcionan manipulando las diferencias de potencial (voltajes). Su componente básico es un amplificador operacional, un dispositivo cuya corriente de salida es proporcional a su diferencia de potencial de entrada. Al hacer que esta corriente de salida fluya a través de los componentes apropiados, se obtienen más diferencias de potencial, y se puede llevar a cabo una gran variedad de operaciones matemáticas, que incluyen inversión, suma, diferenciación e integración. Una computadora analógica electrónica típica consiste en numerosos tipos de amplificadores que se pueden conectar para construir una expresión matemática, a veces de gran complejidad y con una multitud de variables.

Las computadoras analógicas son especialmente adecuadas para simular sistemas dinámicos; tales simulaciones pueden llevarse a cabo en tiempo real o a velocidades muy aceleradas, lo que permite la experimentación mediante ejecuciones repetidas con variables alteradas. Han sido ampliamente utilizadas en simulaciones de aviones, plantas de energía nuclear y procesos químicos industriales. Otros usos principales incluyen análisis de redes hidráulicas (por ejemplo, flujo de líquidos a través de un sistema de alcantarillado) y redes electrónicas (por ejemplo, rendimiento de circuitos de larga distancia).

Computadora Digital y Moderna

Computadora digital
Computadora digital

Una computadora digital, es cualquier clase de dispositivo capaz de resolver problemas procesando información en forma discreta. Funciona con datos, incluidas magnitudes, letras y símbolos, que se expresan en código binario, es decir, utilizando solo los dígitos 0 y 1. Contando, comparando y manipulando estos dígitos o sus combinaciones de acuerdo con un conjunto de instrucciones en su memoria, una computadora digital puede realizar tareas tales como controlar procesos industriales y regular las operaciones de las máquinas; analizar y organizar grandes cantidades de datos comerciales; y simular el comportamiento de los sistemas dinámicos (por ejemplo, patrones climáticos, globales y reacciones químicas) en la investigación científica.

A continuación hay una breve información sobre las computadoras digitales. Para una información más completa, consulta Ciencias de la Computación: Componentes Básicos de una Computadora

Elementos Funcionales

Un sistema de una computadora digital típica tiene cuatro elementos funcionales básicos: (1) un periférico de entrada y salida, (2) una memoria principal, (3) una unidad de control y (4) una unidad de lógica aritmética. Cualquiera de estos dispositivos se usa para ingresar instrucciones de datos y programas en una computadora y también se usan para obtener acceso a los resultados de la operación de procesamiento. Los dispositivos de salida incluyen impresoras y monitores. La información recibida por una computadora desde su unidad de entrada se almacena en la memoria principal o, si no es para uso inmediato, en un dispositivos de almacenamiento auxiliar. La unidad de control selecciona y moviliza las instrucciones de la memoria en la secuencia apropiada y transmite los comandos apropiados a la unidad apropiada. También sincroniza las variadas velocidades operativas de los dispositivos de entrada y salida con las de la unidad de lógica aritmética (ALU siglas en inglés de arithmetic logic unit) para garantizar el movimiento adecuado de los datos a través de todo el sistema informático. La ALU realiza el movimiento adecuado de los datos a través de todo el sistema informático. La ALU realiza algoritmos aritméticos y lógicos seleccionados para procesar los datos entrantes a velocidades extremadamente altas, en muchos casos en nanosegundos (milmillonésimas de segundo). La memoria principal, la unidad de control y la ALU forman la unidad de procesamiento central (CPU, del inglés: central processing unit) de la mayoría de los sistemas informáticos digitales, mientras que los dispositivos de entrada y salida y las unidades de almacenamiento auxiliares constituyen equipos periféricos.

Desarrollo De Las Computadoras Digitales

Blaise Pascal de Francia y Gottfried Wilhelm Leibniz de Alemania inventaron máquinas calculadoras digitales mecánicas durante el siglo XVII. Sin embargo, al inventor inglés Charles Babbage, generalmente se le da el crédito de haber concebido la primera computadora digital automática. Durante la década de 1830, Babbage ideó su denominada máquina analítica, un dispositivo mecánico diseñado para combinar operaciones aritméticas básicas con decisiones basadas en sus propios cálculos. Los planes de Babbage incorporaron la mayoría de los elementos fundamentales de la computadora digital moderna. Por ejemplo, solicitaban el control secuencial, es decir, el control de programas que incluían ramificación, bucles y unidades aritméticas y de almacenamiento con impresión automática. Sin embargo, el dispositivo de Babbage, nunca se completó y se olvidó hasta que sus escritos fueron redescubiertos más de un siglo después.

El trabajo del matemático y lógico inglés George Boole sobre la evolución de las computadoras digitales, fue de gran importancia. En varios ensayos escritos a mediados del siglo XIX, Boole discutió la analogía entre los símbolos del álgebra y los de la lógica al usarse para representar formas lógicas y silogismos. Su formalismo, que opera solo en 0 y 1, se convirtió en la base de lo que ahora se llama álgebra de Boole, la cual se basa en la teoría y procedimiento de conmutación de computadoras.

George Boole
George Boole

Se le atribuye la construcción de la primera computadora digital electrónica a John V. Atanasoff, un matemático y físico estadounidense, que la construyó entre 1939 y 1942 con la ayuda de su estudiante graduado Clifford E.Berry. Konrad Zuse, un ingeniero alemán que actuó en el aislamiento virtual de desarrollos en otros lugares, terminó la constucción en 1941 de la primera máquina de cálculo controlada por el programa operativo (Z3). En 1944, Howard Aiken y un grupo de ingenieros de la corporación International Business Machines (IBM cuyo significado en español se traduce como Máquina de Negocios Internacionales) completaron el trabajo de la Harvard Mark I, una máquina cuyas operaciones de procesamiento de datos estaban controladas principalmente por relés eléctricos (dispositivos de conmutación).

Desde el desarrollo de la Harvard Mark I, las computadoras digitales han evolucionado a un ritmo rápido. La sucesión de avances en equipos de computación, principalmente en circuitos lógicos, a menudo se divide en generaciones, y cada generación comprende un grupo de máquinas que comparten una tecnología común.

En 1946 J.Presper Eckert y John W. Mauchly, ambos de la universidad de Pensilvania, construyeron ENIAC, acrónimo de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico), una máquina digital y primera computadora electrónica de propósito general. Sus características de computación se derivaron de la máquina de Atanasoff; ambas computadoras incluían tubos de vacío en lugar de relés como elementos lógicos activos, una característica que resultó en un aumento significativo en la velocidad de operación. El concepto de una computadora con programa almacenado se introdujo a mediados de la década de 1940, y la idea de almacenar códigos de instrucción y datos en una memoria eléctricamente alterable se implementó en EDVAC (Electronic Discrete Variable Automatic Computer que significa Computadora Automática Electrónica de Variable Discreta).

La segunda generación de computadoras comenzó a finales de la década de 1950, cuando las máquinas digitales que usaban transistores se comercializaron. Aunque este tipo de dispositivo semiconductor se había inventado en 1948, se necesitaban más de 10 años de trabajo de desarrollo para convertirlo en una alternativa viable al tubo de vacío. El pequeño tamaño del transistor, su mayor fiabilidad y su consumo de energía relativamente bajo lo hicieron enormemente superior al tubo. Su uso en circuitos informáticos permitió la fabricación de sistemas digitales que eran considerablemente más eficientes, más pequeños y más rápidos que sus antecesores de primera generación.

A finales de la década de los 60s y 70s, se produjeron nuevos avances dramáticos en el hardware de las computadoras. El primero fue la fabricación del circuito integrado, un dispositivo de estado sólido que contiene cientos de transistores, diodos y resistencias en un pequeño chip de silicio. Este microcircuito hizo posible la producción de computadoras centrales (de gran escala) de mayor velocidad operativa, capacidad y confiabilidad a un costo significativamente menor. Otro tipo de computadora de tercera generación que se desarrolló como resultado de la microelectrónica fue el miniordenador, una máquina apreciablemente más pequeña que la computadora central estándar pero lo suficientemente potente como para controlar los instrumentos de un laboratorio científico completo.

El desarrollo de la integración a gran escala LSI (acrónimo de Large-Scale Integration) permitió a los fabricantes de hardware juntar miles de transistores y otros componentes relacionados en un solo chip de silicio del tamaño de la uña de un bebé. Tal microcircuito produjo dos dispositivos que revolucionaron la tecnología informática. El primero de ellos fue el microprocesador, que es un circuito integrado que contiene todos los circuitos aritméticos, lógicos y de control de una unidad de procesamiento central. Su producción dio como resultado el desarrollo de microcomputadoras, sistemas que no eran más grandes que los televisores portátiles pero que tenían una potencia informática considerable. El otro dispositivo importante que surgió de los circuitos LSI fue la memoria de semiconductores. Este dispositivo de almacenamiento compacto, que consta de solo unos pocos chips, es ideal para su uso en miniordenadores y microordenadores. Además, ha encontrado uso en un número cada vez mayor de computadoras centrales, particularmente aquellos diseñados para aplicaciones de alta velocidad, debido a su rapidez de acceso rápido y gran capacidad de almacenamiento. A finales de la década de 1970, tal electrónica compacta condujo al desarrollo de la computadora personal, una computadora digital pequeña de bajo costo que podía ser utilizada por consumidores comunes.

Macintosh 1984
Macintosh 1984

A comienzos de la década de 1980, los circuitos integrados habían avanzado a una integración a muy gran escala (VLSI, Very Large Scale Integration). Esta tecnología de diseño y fabricación aumentó en gran medida la densidad del circuito del microprocesador, la memoria y los chips de soporte, es decir, los que sirven para conectar microprocesadores con dispositivos de entrada y salida. En la década de 1990, algunos circuitos VLSI contenían más de 3 millones de transistores en un chip de silicio de menos de 0.3 pulgadas cuadradas (2 centímetros cuadrados) de superficie.

Las computadoras digitales de las décadas de 1980 y 1990 que emplean tecnologías LSI Y VLSI a menudo se conocen como sistemas de cuarta generación. Muchos de los microordenadores producidos durante la década de 1980 estaban equipados con un solo chip en el que se integraban los circuitos para el procesador, la memoria y las funciones de la interfaz (Ver también supercomputadora).

El uso de computadoras personales creció durante las décadas de 1980 y 1990. La difusión de la World Wide Web (WWW o red informática mundial) en la década de los 90s atrajo a millones de usuarios a Internet, y en 2015 unas 3.000 millones de personas, la mitad de la población mundial, tenían acceso a Internet. Las computadoras se volvieron más pequeñas y rápidas, como los teléfonos inteligentes y las tabletas, gracias a la difusión de los ordenadores a principios del siglo XXI.

Video: Documental La Historia de la Computación

¿Qué Es Una Computadora? La Historia del Computador (Resumen)
5 (100%) 1 voto

Reacciones

1

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *