Historia del desarrollo de la situación histórica de la tecnología informática. Historia del desarrollo de la tecnología informática. Generaciones de computadoras (computadoras). Etapa mecánica de desarrollo de la tecnología informática.

Tan pronto como una persona descubrió el concepto de "cantidad", inmediatamente comenzó a seleccionar herramientas que optimizarían y facilitarían el conteo. Hoy en día, las computadoras superpoderosas, basadas en los principios del cálculo matemático, procesan, almacenan y transmiten información, el recurso y motor más importante del progreso humano. No es difícil hacerse una idea de cómo se desarrolló la tecnología informática, considerando brevemente las principales etapas de este proceso.

Las principales etapas del desarrollo de la tecnología informática.

La clasificación más popular propone resaltar las principales etapas del desarrollo de la tecnología informática de forma cronológica:

  • Etapa manual. Comenzó en los albores de la era humana y continuó hasta mediados del siglo XVII. Durante este período surgieron los conceptos básicos del conteo. Más tarde, con la formación de los sistemas numéricos posicionales, aparecieron dispositivos (ábaco, ábaco y más tarde una regla de cálculo) que hicieron posible los cálculos por dígitos.
  • Platina mecánica. Comenzó a mediados del siglo XVII y duró casi hasta finales del siglo XIX. El nivel de desarrollo de la ciencia durante este período hizo posible crear dispositivos mecánicos que realizan operaciones aritméticas básicas y recuerdan automáticamente los dígitos más altos.
  • La etapa electromecánica es la más corta de todas las que unen la historia del desarrollo de la tecnología informática. Sólo duró unos 60 años. Este es el período comprendido entre la invención del primer tabulador en 1887 hasta 1946, cuando apareció la primera computadora (ENIAC). Las nuevas máquinas, cuyo funcionamiento se basaba en un accionamiento eléctrico y un relé eléctrico, permitían realizar cálculos con mucha mayor velocidad y precisión, pero el proceso de conteo aún tenía que ser controlado por una persona.
  • La etapa electrónica comenzó en la segunda mitad del siglo pasado y continúa en la actualidad. Esta es la historia de seis generaciones de computadoras electrónicas, desde las primeras unidades gigantes, basadas en tubos de vacío, hasta las supercomputadoras modernas ultrapotentes con una gran cantidad de procesadores que trabajan en paralelo, capaces de ejecutar muchos comandos simultáneamente.

Las etapas de desarrollo de la tecnología informática se dividen según un principio cronológico de forma bastante arbitraria. En un momento en que se utilizaban algunos tipos de computadoras, se estaban creando activamente los requisitos previos para la aparición de las siguientes.

Los primeros dispositivos de conteo

La herramienta de conteo más antigua conocida en la historia del desarrollo de la tecnología informática son los diez dedos de la mano humana. Los resultados del conteo se registraban inicialmente con los dedos, haciendo muescas en madera y piedra, palos especiales y nudos.

Con la llegada de la escritura, aparecieron y se desarrollaron varias formas de escribir números, y se inventaron sistemas numéricos posicionales (decimal en la India, sexagesimal en Babilonia).

Alrededor del siglo IV a. C., los antiguos griegos comenzaron a contar utilizando un ábaco. Inicialmente, era una tablilla plana de arcilla a la que se le aplicaban rayas con un objeto punzante. El conteo se realizó colocando pequeñas piedras u otros objetos pequeños sobre estas franjas en un orden determinado.

En China, en el siglo IV d.C., apareció un ábaco de siete puntas: suanpan (suanpan). Se tensaron alambres o cuerdas (nueve o más) sobre un marco de madera rectangular. Otro alambre (cuerda), estirado perpendicularmente a los demás, dividía el suanpan en dos partes desiguales. En el compartimento más grande, llamado "tierra", había cinco huesos atados a cables, en el compartimento más pequeño, llamado "cielo", había dos. Cada uno de los cables correspondía a un decimal.

El ábaco soroban tradicional se ha vuelto popular en Japón desde el siglo XVI, habiendo llegado allí desde China. Al mismo tiempo, apareció el ábaco en Rusia.

En el siglo XVII, basándose en los logaritmos descubiertos por el matemático escocés John Napier, el inglés Edmond Gunter inventó la regla de cálculo. Este dispositivo se mejoró constantemente y ha sobrevivido hasta el día de hoy. Te permite multiplicar y dividir números, elevarlos a potencias, determinar logaritmos y funciones trigonométricas.

La regla de cálculo se convirtió en un dispositivo que completó el desarrollo de la tecnología informática en la etapa manual (premecánica).

Los primeros dispositivos de cálculo mecánicos.

En 1623, el científico alemán Wilhelm Schickard creó la primera "calculadora" mecánica, a la que llamó reloj contador. El mecanismo de este dispositivo se parecía a un reloj normal, formado por engranajes y ruedas dentadas. Sin embargo, este invento se conoció sólo a mediados del siglo pasado.

Un salto cualitativo en el campo de la tecnología informática fue la invención de la máquina sumadora Pascalina en 1642. Su creador, el matemático francés Blaise Pascal, comenzó a trabajar en este dispositivo cuando ni siquiera tenía 20 años. "Pascalina" era un dispositivo mecánico en forma de caja con una gran cantidad de engranajes interconectados. Los números que debían sumarse se ingresaban en la máquina girando ruedas especiales.

En 1673, el matemático y filósofo sajón Gottfried von Leibniz inventó una máquina que realizaba las cuatro operaciones matemáticas básicas y podía extraer la raíz cuadrada. El principio de su funcionamiento se basó en el sistema numérico binario, especialmente inventado por el científico.

En 1818, el francés Charles (Karl) Xavier Thomas de Colmar, tomando como base las ideas de Leibniz, inventó una máquina sumadora que podía multiplicar y dividir. Y dos años después, el inglés Charles Babbage comenzó a construir una máquina que sería capaz de realizar cálculos con una precisión de 20 decimales. Este proyecto quedó inconcluso, pero en 1830 su autor desarrolló otro: un motor analítico para realizar cálculos científicos y técnicos precisos. Se suponía que la máquina estaría controlada por software y se utilizarían tarjetas perforadas con diferentes ubicaciones de orificios para ingresar y emitir información. El proyecto de Babbage previó el desarrollo de la tecnología informática electrónica y los problemas que podrían resolverse con su ayuda.

Es de destacar que la fama del primer programador del mundo pertenece a una mujer: Lady Ada Lovelace (de soltera Byron). Fue ella quien creó los primeros programas para la computadora de Babbage. Posteriormente, uno de los lenguajes informáticos recibió su nombre.

Desarrollo de los primeros análogos de computadora.

En 1887, la historia del desarrollo de la tecnología informática entró en una nueva etapa. El ingeniero estadounidense Herman Hollerith logró diseñar la primera computadora electromecánica: el tabulador. Su mecanismo tenía un relé, además de contadores y una caja de clasificación especial. El dispositivo leía y clasificaba registros estadísticos elaborados en tarjetas perforadas. Posteriormente, la empresa fundada por Hollerith se convirtió en la columna vertebral del mundialmente famoso gigante informático IBM.

En 1930, el estadounidense Vannovar Bush creó un analizador diferencial. Funcionaba con electricidad y se utilizaban tubos de vacío para almacenar datos. Esta máquina era capaz de encontrar rápidamente soluciones a problemas matemáticos complejos.

Seis años más tarde, el científico inglés Alan Turing desarrolló el concepto de máquina, que se convirtió en la base teórica de las computadoras modernas. Tenía todas las propiedades principales de la tecnología informática moderna: podía realizar paso a paso operaciones programadas en la memoria interna.

Un año después, George Stibitz, un científico de Estados Unidos, inventó el primer dispositivo electromecánico del país capaz de realizar una suma binaria. Sus operaciones se basaban en el álgebra booleana, la lógica matemática creada a mediados del siglo XIX por George Boole: el uso de los operadores lógicos AND, OR y NOT. Más tarde, el sumador binario se convertirá en parte integral de la computadora digital.

En 1938, Claude Shannon, un empleado de la Universidad de Massachusetts, describió los principios del diseño lógico de una computadora que utiliza circuitos eléctricos para resolver problemas de álgebra booleana.

El comienzo de la era de la informática.

Los gobiernos de los países involucrados en la Segunda Guerra Mundial eran conscientes del papel estratégico de la informática en la conducción de operaciones militares. Este fue el impulso para el desarrollo y aparición paralela de la primera generación de computadoras en estos países.

Un pionero en el campo de la ingeniería informática fue Konrad Zuse, un ingeniero alemán. En 1941 creó la primera computadora controlada por un programa. La máquina, llamada Z3, estaba construida sobre relés telefónicos y sus programas estaban codificados en cinta perforada. Este dispositivo pudo funcionar en el sistema binario, así como operar con números de coma flotante.

El próximo modelo de la máquina de Zuse, el Z4, es reconocido oficialmente como la primera computadora programable que realmente funciona. También pasó a la historia como creador del primer lenguaje de programación de alto nivel, llamado Plankalküll.

En 1942, los investigadores estadounidenses John Atanasoff (Atanasoff) y Clifford Berry crearon un dispositivo informático que funcionaba con tubos de vacío. La máquina también utilizaba código binario y podía realizar una serie de operaciones lógicas.

En 1943, en un laboratorio del gobierno inglés, en una atmósfera de secreto, se construyó la primera computadora, llamada “Colossus”. En lugar de relés electromecánicos, se utilizaron 2.000 tubos electrónicos para almacenar y procesar información. Su objetivo era descifrar y descifrar el código de mensajes secretos transmitidos por la máquina de cifrado alemana Enigma, que era ampliamente utilizada por la Wehrmacht. La existencia de este dispositivo se mantuvo en la más estricta confidencialidad durante mucho tiempo. Después del final de la guerra, la orden de destrucción fue firmada personalmente por Winston Churchill.

Desarrollo de arquitectura

En 1945, el matemático estadounidense húngaro-alemán John (Janos Lajos) von Neumann creó el prototipo de la arquitectura de las computadoras modernas. Propuso escribir un programa en forma de código directamente en la memoria de la máquina, lo que implica el almacenamiento conjunto de programas y datos en la memoria de la computadora.

La arquitectura de Von Neumann formó la base de la primera computadora electrónica universal, ENIAC, que se creó en ese momento en los Estados Unidos. Este gigante pesaba alrededor de 30 toneladas y ocupaba una superficie de 170 metros cuadrados. En el funcionamiento de la máquina se utilizaron 18 mil lámparas. Esta computadora podría realizar 300 operaciones de multiplicación o 5 mil sumas en un segundo.

La primera computadora programable universal de Europa se creó en 1950 en la Unión Soviética (Ucrania). Un grupo de científicos de Kiev, dirigido por Sergei Alekseevich Lebedev, diseñó una pequeña máquina calculadora electrónica (MESM). Su velocidad era de 50 operaciones por segundo y contenía alrededor de 6 mil tubos de vacío.

En 1952, la tecnología informática nacional se reponía con BESM, una gran máquina calculadora electrónica, también desarrollada bajo la dirección de Lebedev. Esta computadora, que realizaba hasta 10 mil operaciones por segundo, era en ese momento la más rápida de Europa. La información se ingresaba en la memoria de la máquina mediante cinta de papel perforada y los datos se generaban mediante impresión fotográfica.

Durante el mismo período, se produjo en la URSS una serie de computadoras grandes con el nombre general "Strela" (el autor del desarrollo fue Yuri Yakovlevich Bazilevsky). Desde 1954, bajo la dirección de Bashir Rameev, comenzó en Penza la producción en serie del ordenador universal "Ural". Los últimos modelos eran compatibles en hardware y software entre sí, había una amplia selección de dispositivos periféricos que permitían ensamblar máquinas de diversas configuraciones.

Transistores. Lanzamiento de las primeras computadoras en serie.

Sin embargo, las lámparas fallaron muy rápidamente, lo que dificultó mucho el trabajo con la máquina. El transistor, inventado en 1947, logró solucionar este problema. Utilizando las propiedades eléctricas de los semiconductores, realizaba las mismas tareas que los tubos de vacío, pero ocupaba mucho menos espacio y no consumía tanta energía. Junto con la aparición de los núcleos de ferrita para organizar la memoria de la computadora, el uso de transistores hizo posible reducir significativamente el tamaño de las máquinas, haciéndolas aún más confiables y rápidas.

En 1954, la empresa estadounidense Texas Instruments comenzó a producir transistores en masa y dos años más tarde apareció en Massachusetts la primera computadora de segunda generación construida con transistores, la TX-O.

A mediados del siglo pasado, una parte importante de las organizaciones gubernamentales y las grandes empresas utilizaban computadoras para realizar cálculos científicos, financieros, de ingeniería y trabajar con grandes cantidades de datos. Poco a poco, las computadoras adquirieron características que hoy conocemos. Durante este período aparecieron los trazadores, las impresoras y los medios de almacenamiento en discos y cintas magnéticos.

El uso activo de la tecnología informática ha llevado a una ampliación de sus áreas de aplicación y ha requerido la creación de nuevas tecnologías de software. Han aparecido lenguajes de programación de alto nivel que permiten transferir programas de una máquina a otra y simplificar el proceso de escritura de código (Fortran, Cobol y otros). Han aparecido programas traductores especiales que convierten el código de estos idiomas en comandos que la máquina puede percibir directamente.

La aparición de los circuitos integrados.

En 1958-1960, gracias a los ingenieros estadounidenses Robert Noyce y Jack Kilby, el mundo conoció la existencia de los circuitos integrados. Se montaban transistores en miniatura y otros componentes, a veces hasta cientos o miles, sobre una base de cristal de silicio o germanio. Los chips, de poco más de un centímetro de tamaño, eran mucho más rápidos que los transistores y consumían mucha menos energía. La historia del desarrollo de la tecnología informática conecta su aparición con el surgimiento de la tercera generación de computadoras.

En 1964, IBM lanzó la primera computadora de la familia System 360, basada en circuitos integrados. A partir de este momento se puede contar con la producción en masa de ordenadores. En total, se produjeron más de 20 mil copias de esta computadora.

En 1972, la URSS desarrolló la computadora ES (serie unificada). Se trataba de complejos estandarizados para el funcionamiento de centros informáticos que contaban con un sistema de mando común. Se tomó como base el sistema americano IBM 360.

Al año siguiente, DEC lanzó la minicomputadora PDP-8, el primer proyecto comercial en esta área. El costo relativamente bajo de las minicomputadoras ha hecho posible que las pequeñas organizaciones las utilicen.

Durante el mismo período, el software fue mejorado constantemente. Se desarrollaron sistemas operativos destinados a soportar el máximo número de dispositivos externos y aparecieron nuevos programas. En 1964, desarrollaron BASIC, un lenguaje diseñado específicamente para formar programadores novatos. Cinco años después apareció Pascal, que resultó muy conveniente para resolver muchos problemas aplicados.

Computadoras personales

Después de 1970 comenzó la producción de la cuarta generación de ordenadores. El desarrollo de la tecnología informática en este momento se caracteriza por la introducción de grandes circuitos integrados en la producción de computadoras. Estas máquinas ahora podían realizar miles de millones de operaciones computacionales en un segundo y su capacidad de RAM aumentó a 500 millones de bits. Una reducción significativa en el costo de las microcomputadoras ha llevado al hecho de que la oportunidad de comprarlas gradualmente se hizo disponible para el ciudadano medio.

Apple fue uno de los primeros fabricantes de ordenadores personales. Sus creadores, Steve Jobs y Steve Wozniak, diseñaron el primer modelo de PC en 1976, dándole el nombre de Apple I. Costaba sólo 500 dólares. Un año después, se presentó el próximo modelo de esta empresa: Apple II.

La computadora de esta época por primera vez se volvió similar a un electrodoméstico: además de su tamaño compacto, tenía un diseño elegante y una interfaz fácil de usar. La proliferación de ordenadores personales a finales de los años 1970 provocó que la demanda de ordenadores centrales cayera notablemente. Este hecho preocupó seriamente a su fabricante, IBM, que en 1979 lanzó al mercado su primer PC.

Dos años más tarde, apareció el primer microordenador de arquitectura abierta de la empresa, basado en el microprocesador 8088 de 16 bits fabricado por Intel. La computadora estaba equipada con una pantalla monocromática, dos unidades para disquetes de cinco pulgadas y 64 kilobytes de RAM. En nombre de la empresa creadora, Microsoft desarrolló especialmente un sistema operativo para esta máquina. Aparecieron en el mercado numerosos clones de PC de IBM, que estimularon el crecimiento de la producción industrial de computadoras personales.

En 1984, Apple desarrolló y lanzó una nueva computadora: la Macintosh. Su sistema operativo era extremadamente fácil de usar: presentaba comandos en forma de imágenes gráficas y permitía introducirlos mediante el ratón. Esto hizo que la computadora fuera aún más accesible, ya que ahora no se requerían habilidades especiales por parte del usuario.

Algunas fuentes fechan los ordenadores de quinta generación de tecnología informática entre 1992 y 2013. Brevemente, su concepto principal se formula de la siguiente manera: se trata de computadoras creadas sobre la base de microprocesadores de alta complejidad, que tienen una estructura de vectores paralelos, lo que permite ejecutar simultáneamente docenas de comandos secuenciales integrados en el programa. Las máquinas con varios cientos de procesadores trabajando en paralelo permiten procesar datos de forma aún más precisa y rápida, así como crear redes eficientes.

El desarrollo de la tecnología informática moderna ya nos permite hablar de ordenadores de sexta generación. Se trata de computadoras electrónicas y optoelectrónicas que funcionan con decenas de miles de microprocesadores, que se caracterizan por un paralelismo masivo y modelan la arquitectura de los sistemas biológicos neuronales, lo que les permite reconocer con éxito imágenes complejas.

Después de examinar sistemáticamente todas las etapas del desarrollo de la tecnología informática, cabe señalar un hecho interesante: los inventos que han demostrado su eficacia en cada una de ellas han sobrevivido hasta el día de hoy y continúan utilizándose con éxito.

Clases de informática

Existen varias opciones para clasificar las computadoras.

Entonces, según su finalidad, las computadoras se dividen:

  • a los universales: aquellos que son capaces de resolver una amplia variedad de problemas matemáticos, económicos, de ingeniería, técnicos, científicos y otros;
  • orientado a problemas: resolver problemas de una dirección más estrecha, asociados, por regla general, con la gestión de ciertos procesos (registro de datos, acumulación y procesamiento de pequeñas cantidades de información, realización de cálculos de acuerdo con algoritmos simples). Tienen recursos de software y hardware más limitados que el primer grupo de computadoras;
  • Las computadoras especializadas suelen resolver tareas estrictamente definidas. Tienen una estructura altamente especializada y, con una complejidad relativamente baja de dispositivo y control, son bastante confiables y productivos en su campo. Se trata, por ejemplo, de controladores o adaptadores que controlan varios dispositivos, así como de microprocesadores programables.

Según el tamaño y la capacidad productiva, los equipos informáticos electrónicos modernos se dividen en:

  • a ultragrandes (supercomputadoras);
  • computadoras grandes;
  • computadoras pequeñas;
  • ultrapequeños (microcomputadoras).

Así, vimos que los dispositivos, primero inventados por el hombre para tener en cuenta recursos y valores, y luego para realizar cálculos y operaciones computacionales complejos de manera rápida y precisa, estaban en constante desarrollo y mejora.

Institución educativa municipal, escuela secundaria n.° 3 del distrito de Karasuk

Sujeto : Historia del desarrollo de la tecnología informática.

Compilado por:

Estudiante MOUSOSH No. 3

Kochetov Egor Pavlovich

Gerente y consultor:

Serdyukov Valentin Ivanovich,

profesor de informática MOUSOSH No. 3

Karasuk 2008

Relevancia

Introducción

Primeros pasos en el desarrollo de dispositivos de conteo

Dispositivos de cálculo del siglo XVII.

Dispositivos de cálculo del siglo XVIII.

Dispositivos de conteo del siglo XIX.

Desarrollo de la tecnología informática a principios del siglo XX.

El surgimiento y desarrollo de la tecnología informática en los años 40 del siglo XX.

Desarrollo de la tecnología informática en los años 50 del siglo XX.

Desarrollo de la tecnología informática en los años 60 del siglo XX.

Desarrollo de la tecnología informática en los años 70 del siglo XX.

Desarrollo de la tecnología informática en los años 80 del siglo XX.

Desarrollo de la tecnología informática en los años 90 del siglo XX.

El papel de la tecnología informática en la vida humana.

Mi investigación

Conclusión

Bibliografía

Relevancia

Las matemáticas y la informática se utilizan en todos los ámbitos de la sociedad de la información moderna. La producción moderna, la informatización de la sociedad y la introducción de tecnologías de la información modernas requieren alfabetización y competencia matemática e informacional. Sin embargo, hoy en día, los cursos escolares de informática y TIC a menudo ofrecen un enfoque educativo unilateral que no permite aumentar adecuadamente el nivel de conocimientos debido a la falta de la lógica matemática necesaria para el dominio completo del material. Además, la falta de estimulación del potencial creativo de los estudiantes tiene un impacto negativo en la motivación para aprender y, como consecuencia, en el nivel final de habilidades, conocimientos y habilidades. ¿Cómo se puede estudiar un tema sin conocer su historia? Este material se puede utilizar en lecciones de historia, matemáticas e informática.

Hoy en día es difícil imaginar que se pueda prescindir de los ordenadores. Pero no hace mucho tiempo, hasta principios de los años 70, las computadoras estaban disponibles para un círculo muy limitado de especialistas y su uso, por regla general, permanecía envuelto en secreto y poco conocido por el público en general. Sin embargo, en 1971 ocurrió un hecho que cambió radicalmente la situación y, a una velocidad fantástica, convirtió el ordenador en una herramienta de trabajo cotidiana para decenas de millones de personas.

Introducción

La gente aprendió a contar con sus propios dedos. Cuando esto no fue suficiente, aparecieron los dispositivos de conteo más simples. Entre ellos, ABAK, que se generalizó en el mundo antiguo, ocupó un lugar especial. Luego, después de años de desarrollo humano, aparecieron las primeras computadoras electrónicas (computadoras). No sólo aceleraron el trabajo informático, sino que también impulsaron a las personas a crear nuevas tecnologías. La palabra "computadora" significa "computadora", es decir dispositivo informático. La necesidad de automatizar el procesamiento de datos, incluidos los cálculos, surgió hace mucho tiempo. Hoy en día es difícil imaginar que se pueda prescindir de los ordenadores. Pero no hace mucho tiempo, hasta principios de los años 70, las computadoras estaban disponibles para un círculo muy limitado de especialistas y su uso, por regla general, permanecía envuelto en secreto y poco conocido por el público en general. Sin embargo, en 1971 ocurrió un hecho que cambió radicalmente la situación y, con una velocidad fantástica, convirtió el ordenador en una herramienta de trabajo cotidiana para decenas de millones de personas. En aquel año sin duda significativo, la casi desconocida empresa Intel de un pequeño pueblo americano con el bonito nombre de Santa Clara (California) lanzó el primer microprocesador. Es a él a quien le debemos el surgimiento de una nueva clase de sistemas informáticos: las computadoras personales, que ahora utilizan prácticamente todo el mundo, desde estudiantes de primaria y contadores hasta científicos e ingenieros. A finales del siglo XX es imposible imaginar la vida sin un ordenador personal. El ordenador ha entrado firmemente en nuestras vidas, convirtiéndose en el principal asistente del hombre. Hoy en el mundo existen muchas computadoras de diferentes empresas, diferentes grupos de complejidad, finalidades y generaciones. En este ensayo analizaremos la historia del desarrollo de la tecnología informática, así como una breve descripción de las posibilidades de utilizar sistemas informáticos modernos y futuras tendencias en el desarrollo de computadoras personales.

Primeros pasos en el desarrollo de dispositivos de conteo

La historia de los dispositivos de conteo se remonta a muchos siglos. El instrumento de cálculo más antiguo que la propia naturaleza puso a disposición del hombre fue su propia mano. Para facilitar el conteo, la gente empezó a utilizar los dedos de una mano, luego de ambas y, en algunas tribus, los dedos de los pies. En el siglo XVI, las técnicas de contar con los dedos se describían en los libros de texto.

El siguiente paso en el desarrollo del conteo fue el uso de guijarros u otros objetos, y para memorizar números: muescas en huesos de animales, nudos en cuerdas. El llamado "hueso de Vestonitsa" con muescas descubierto en las excavaciones permite a los historiadores suponer que ya entonces, 30 mil años antes de Cristo, nuestros antepasados ​​estaban familiarizados con los rudimentos del conteo:


El desarrollo temprano del conteo escrito se vio obstaculizado por la complejidad de las operaciones aritméticas en la multiplicación de números que existían en ese momento. Además, pocas personas sabían escribir y no había material educativo para escribir: el pergamino comenzó a producirse alrededor del siglo II a. C., el papiro era demasiado caro y las tablillas de arcilla eran incómodas de usar.

Estas circunstancias explican la aparición de un dispositivo de cálculo especial: el ábaco. Hacia el siglo V a.C. El ábaco se generalizó en Egipto, Grecia y Roma. Era una tabla con ranuras en las que, según el principio posicional, se colocaban algunos objetos: guijarros, huesos.


Un instrumento parecido a un ábaco era conocido en todas las naciones. El antiguo ábaco griego (tablero o "tablero salaminio" que lleva el nombre de la isla de Salamina en el mar Egeo) era una tabla salpicada de arena de mar. En la arena había surcos en los que estaban marcados números con guijarros. Un surco correspondía a las unidades, el otro a las decenas, etc. Si al contar se recogieron más de 10 guijarros en cualquier ranura, se eliminaron y se añadió un guijarro en la siguiente fila.

Los romanos mejoraron el ábaco, pasando de tablas de madera, arena y guijarros a tablas de mármol con ranuras cinceladas y bolas de mármol. Posteriormente, hacia el año 500 d.C., se mejoró el ábaco y nació el ábaco, un dispositivo formado por un juego de nudillos ensartados en varillas. El ábaco chino suan-pan constaba de un marco de madera dividido en secciones superior e inferior. Los palos corresponden a las columnas y las cuentas corresponden a los números. Para los chinos, contar no se basaba en diez, sino en cinco.


Está dividido en dos partes: en la parte inferior hay 5 semillas en cada fila, en la parte superior hay dos. Así, para fijar el número 6 en estos ábacos, primero colocaron el hueso correspondiente al cinco, y luego sumaron uno a la cifra de las unidades.


Los japoneses llamaron serobyan al mismo dispositivo para contar:


En Rusia, durante mucho tiempo, se contaba mediante huesos colocados en montones. Alrededor del siglo XV se generalizó el "ábaco de tablas", que casi no se diferenciaba del ábaco ordinario y consistía en un marco con cuerdas horizontales reforzadas sobre las que se ensartaban huesos de ciruela o cereza perforados.


Alrededor del siglo VI. ANUNCIO En la India, se formaron formas muy avanzadas de escribir números y reglas para realizar operaciones aritméticas, ahora llamado sistema numérico decimal. Al escribir un número al que le faltaba algún dígito (por ejemplo, 101 o 1204), los indios decían la palabra "vacío". ”en lugar del nombre del número. Al grabar, se colocó un punto en lugar del dígito "vacío" y luego se dibujó un círculo. Este círculo se llamaba "sunya"; en hindi significaba "espacio vacío". Los matemáticos árabes tradujeron esta palabra a su propio idioma: dijeron "sifr". La palabra moderna "cero" nació hace relativamente poco tiempo, más tarde que "dígito". Proviene de la palabra latina "nihil" - "no". Alrededor del 850 d.C. El matemático científico árabe Muhammad ben Musa al-Khorezm (de la ciudad de Khorezm en el río Amu Darya) escribió un libro sobre las reglas generales para resolver problemas aritméticos usando ecuaciones. Se llamaba "Kitab al-Jabr". Este libro dio su nombre a la ciencia del álgebra. Otro libro de al-Khwarizmi jugó un papel muy importante, en el que describió en detalle la aritmética india. Trescientos años después (en 1120) este libro fue traducido al latín y se convirtió en el primer un libro de texto de aritmética “india” (es decir, nuestra moderna) para todas las ciudades europeas.


La aparición del término “algoritmo” se la debemos a Muhammad ben Musa al-Khorezm.

A finales del siglo XV, Leonardo da Vinci (1452-1519) creó un boceto de un dispositivo sumador de 13 bits con anillos de diez dientes. Pero los manuscritos de Da Vinci no fueron descubiertos hasta 1967, por lo que la biografía de los dispositivos mecánicos proviene de la máquina sumadora de Pascal. Basándose en sus dibujos, hoy una empresa estadounidense de fabricación de ordenadores ha construido una máquina funcional con fines publicitarios.

Dispositivos de cálculo del siglo XVII.


En 1614, el matemático escocés John Naiper (1550-1617) inventó las tablas de logaritmos. Su principio es que a cada número le corresponde un número especial, un logaritmo, un exponente al que se debe elevar el número (la base del logaritmo) para obtener un número determinado. Cualquier número se puede expresar de esta manera. Los logaritmos simplifican mucho la división y la multiplicación. Para multiplicar dos números, simplemente suma sus logaritmos. Gracias a esta propiedad, la compleja operación de multiplicación se reduce a una simple operación de suma. Para simplificar, se compilaron tablas de logaritmos, que luego se integraron en un dispositivo que podría acelerar significativamente el proceso de cálculo: una regla de cálculo.


Napier propuso en 1617 otro método (no logarítmico) para multiplicar números. El instrumento, llamado palo de Napier (o nudillo), consistía en placas o bloques delgados. Cada lado del bloque lleva números que forman una progresión matemática.


La manipulación de bloques le permite extraer raíces cuadradas y cúbicas, así como multiplicar y dividir números grandes.


Guillermo Schickard

En 1623, Wilhelm Schickard, orientalista y matemático, profesor de la Universidad de Tyubin, en cartas a su amigo Johannes Kepler describió el diseño de un "reloj contador", una máquina calculadora con un dispositivo para configurar números y rodillos con un control deslizante. y una ventana para leer el resultado. Esta máquina sólo podía sumar y restar (algunas fuentes dicen que esta máquina también podía multiplicar y dividir). Este fue el primer coche mecánico. Hoy en día, según su descripción, se construye su modelo:

Blaise Pascal


En 1642, el matemático francés Blaise Pascal (1623-1662) diseñó un dispositivo de cálculo para facilitar el trabajo de su padre, inspector de Hacienda. Este dispositivo hizo posible sumar números decimales. Exteriormente parecía una caja con numerosos engranajes.


La base de la máquina sumadora era el contador o mecanismo de conteo. Tenía diez protuberancias, cada una de las cuales tenía números escritos. Para transmitir decenas, había un diente alargado en el engranaje, que engranaba y hacía girar el engranaje intermedio, que transmitía la rotación al engranaje de decenas. Se necesitaba un engranaje adicional para garantizar que ambos engranajes de conteo, las unidades y las decenas, giraran en la misma dirección. El engranaje de conteo se conectó a la palanca mediante un mecanismo de trinquete (que transmite movimiento hacia adelante y no transmite movimiento hacia atrás). La desviación de la palanca hacia un ángulo u otro hizo posible ingresar números de un solo dígito en el contador y resumirlos. En la máquina de Pascal, se adjuntó un trinquete a todos los engranajes de conteo, lo que hizo posible sumar números de varios dígitos.

En 1642, el británico Robert Bissacar y en 1657, de forma independiente, S. Partridge desarrollaron una regla de cálculo rectangular, cuyo diseño ha sobrevivido en gran medida hasta nuestros días.


En 1673, el filósofo, matemático y físico alemán Gottfried Wilhelm Leibniz (Gottfried Wilhelm Leibniz, 1646-1716) creó una "calculadora de pasos", una máquina calculadora que permite sumar, restar, multiplicar, dividir y extraer raíces cuadradas, utilizando el sistema numérico binario.

Era un dispositivo más avanzado que utilizaba una parte móvil (un prototipo de carro) y un mango con el que el operador hacía girar la rueda. El producto de Leibniz sufrió el triste destino de sus predecesores: si alguien lo utilizó, fueron sólo la familia de Leibniz y los amigos de su familia, ya que aún no había llegado el momento de la demanda masiva de tales mecanismos.

La máquina fue el prototipo de la máquina sumadora, utilizada desde 1820 hasta los años 60 del siglo XX.

Dispositivos de cálculo del siglo XVIII.


En 1700, Charles Perrault publicó “Una colección de un gran número de máquinas de invención propia de Claude Perrault”, en la que entre los inventos de Claude Perrault (hermano de Charles Perrault) se encuentra una máquina sumadora en la que se utilizan cremalleras en lugar de engranajes. La máquina se llamó "Ábaco rabdológico". Este dispositivo recibió su nombre porque los antiguos llamaban ábaco a una pequeña tabla en la que se escriben números, y rabdología, la ciencia de la ejecución.

Operaciones aritméticas utilizando pequeños palitos con números.


En 1703, Gottfried Wilhelm Leibniz escribió un tratado "Expication de l'Arithmetique Binary" - sobre el uso del sistema numérico binario en las computadoras. Sus primeros trabajos sobre aritmética binaria se remontan a 1679.

Miembro de la Royal Society de Londres, el matemático, físico y astrónomo alemán Christian Ludwig Gersten inventó una máquina aritmética en 1723 y dos años después la fabricó. La máquina de Gersten se destaca porque es la primera en utilizar un dispositivo para calcular el cociente y el número de operaciones de suma sucesivas necesarias al multiplicar números, y también brinda la capacidad de controlar la exactitud de ingresar (configurar) el segundo sumando, que Reduce la probabilidad de error subjetivo asociado con la fatiga de la calculadora.

En 1727, Jacob Leupold creó una máquina calculadora que utilizaba el principio de la máquina de Leibniz.

En el informe de la comisión de la Academia de Ciencias de París, publicado en 1751 en el Journal of Scientists, hay líneas notables: “Los resultados del método del Sr. Pereira que hemos visto son suficientes para confirmar una vez más la opinión. .que este método de enseñanza a los sordomudos es sumamente práctico y que la persona que lo utilizó con tanto éxito es digna de elogio y estímulo... Al hablar del progreso que el alumno del Sr. Pereira hizo en muy poco tiempo en el conocimiento de los números, debemos agregar que el Sr. Pereira utilizó la Máquina Aritmética, que él mismo inventó." Esta máquina aritmética se describe en el "Journal of Scientists", pero, lamentablemente, la revista no contiene dibujos. Esta máquina calculadora utilizó algunas ideas tomadas de Pascal y Perrault, pero en general fue un diseño completamente original. Se diferenciaba de las máquinas conocidas en que sus ruedas contadoras no estaban situadas sobre ejes paralelos, sino sobre un único eje que recorría toda la máquina. Esta innovación, que hizo que el diseño fuera más compacto, fue posteriormente ampliamente utilizada por otros inventores: Felt y Odner.

En la segunda mitad del siglo XVII (a más tardar en 1770), se creó una máquina sumadora en la ciudad de Nesvizh. La inscripción en esta máquina dice que fue “inventada y fabricada por la judía Evna Jacobson, relojera y mecánica en la ciudad de Nesvizh en Lituania”, “Voivodato de Minsk”. Esta máquina se encuentra actualmente en la colección de instrumentos científicos del Museo M.V. Lomonosov (San Petersburgo). Una característica interesante de la máquina Jacobson era un dispositivo especial que permitía contar automáticamente el número de restas realizadas, es decir, determinar el cociente. La presencia de este dispositivo, el problema ingeniosamente resuelto de ingresar números, la capacidad de registrar resultados intermedios, todo esto nos permite considerar al "relojero de Nesvizh" como un excelente diseñador de equipos de cálculo.


En 1774, el pastor rural Philip Matthaos Hahn desarrolló la primera máquina calculadora funcional. Logró construir y, lo más increíble, vender un pequeño número de máquinas calculadoras.

En 1775, en Inglaterra, el Conde Steinhope creó un dispositivo de cálculo en el que no se implementaron nuevos sistemas mecánicos, pero este dispositivo tenía un funcionamiento más confiable.


Dispositivos de cálculo del siglo XIX.

En 1804, el inventor francés Joseph-Marie Jacquard (1752-1834) ideó una forma de controlar automáticamente el hilo cuando se trabajaba en un telar. El método consistía en utilizar tarjetas especiales con agujeros perforados en los lugares correctos (dependiendo del patrón que se iba a aplicar a la tela). Así, diseñó una máquina de hilar cuyo funcionamiento podía programarse mediante tarjetas especiales. El funcionamiento de la máquina se programó utilizando una baraja completa de tarjetas perforadas, cada una de las cuales controlaba un movimiento de lanzadera. Al pasar a un nuevo dibujo, el operador simplemente reemplazaba una baraja de tarjetas perforadas por otra. La creación de un telar controlado por tarjetas con agujeros perforados y conectados entre sí en forma de cinta es uno de los descubrimientos clave que determinaron el desarrollo posterior de la tecnología informática.

Carlos Xavier Tomás

Carlos Xavier Thomas (1785-1870) en 1820 Creó la primera calculadora mecánica que no sólo podía sumar y multiplicar, sino también restar y dividir. El rápido desarrollo de las calculadoras mecánicas llevó a la adición de una serie de funciones útiles en 1890: almacenar resultados intermedios y utilizarlos en operaciones posteriores, imprimir el resultado, etc. La creación de máquinas fiables y económicas hizo posible su uso con fines comerciales y cálculos científicos.

Charles Babbage

En 1822 El matemático inglés Charles Babbage (1792-1871) propuso la idea de crear una máquina calculadora controlada por programa con un dispositivo aritmético, un dispositivo de control, entrada e impresión.

La primera máquina que Babbage diseñó, la Máquina Diferencial, estaba propulsada por una máquina de vapor. Calculó tablas de logaritmos utilizando el método de diferenciación constante y registró los resultados en una placa de metal. El modelo de trabajo que creó en 1822 era una calculadora de seis dígitos capaz de realizar cálculos e imprimir tablas numéricas.

Ada Lovelace

Lady Ada Lovelace (Ada Byron, condesa de Lovelace, 1815-1852) trabajó simultáneamente con el científico inglés. Ella desarrolló los primeros programas para la máquina, planteó muchas ideas e introdujo una serie de conceptos y términos que han sobrevivido hasta nuestros días.

La máquina analítica de Babbage fue construida por entusiastas del Museo de Ciencias de Londres. Está formado por cuatro mil piezas de hierro, bronce y acero y pesa tres toneladas. Es cierto que es muy difícil de utilizar: con cada cálculo hay que girar el mango de la máquina varios cientos (o incluso miles) de veces.

Los números se escriben (teclean) en discos dispuestos verticalmente y colocados en las posiciones 0 a 9. El motor es accionado por una secuencia de tarjetas perforadas que contienen instrucciones (programa).

Primer telégrafo

El primer telégrafo eléctrico fue creado en 1937 por los inventores ingleses William Cook (1806-1879) y Charles Wheatstone (1802-1875). Se envió una corriente eléctrica a través de los cables al receptor. Las señales activaban flechas en el receptor, que señalaban diferentes letras y así transmitían mensajes.

El artista estadounidense Samuel Morse (1791-1872) inventó un nuevo código telegráfico que reemplazó al código de Cook y Wheatstone. Desarrolló puntos y rayas para cada letra. Morse realizó una demostración de su código tendiendo un cable telegráfico de 6 km de Baltimore a Washington y transmitiendo noticias de las elecciones presidenciales a través de él.

Más tarde (en 1858), Charles Wheatstone creó un sistema en el que un operador, utilizando el código Morse, escribía mensajes en una larga cinta de papel que alimentaba una máquina de telégrafo. Al otro lado de la línea, la grabadora estaba escribiendo el mensaje recibido en otra cinta de papel. La productividad de los operadores de telégrafos se multiplica por diez: los mensajes ahora se envían a una velocidad de cien palabras por minuto.

En 1846 apareció la calculadora Kummer, que se produjo en masa durante más de 100 años, hasta los años 70 del siglo XX. Las calculadoras se han convertido ahora en un atributo integral de la vida moderna. Pero cuando no había calculadoras, se utilizaba la calculadora Kummer, que, por capricho de los diseñadores, luego se convirtió en "Addiator", "Productos", "Regla aritmética" o "Progreso". Este maravilloso dispositivo, creado a mediados del siglo XIX, según su fabricante, podía fabricarse del tamaño de un naipe y, por lo tanto, cabía fácilmente en un bolsillo. El dispositivo de Kummer, profesor de música de San Petersburgo, destacaba entre los inventados anteriormente por su portabilidad, que se convirtió en su ventaja más importante. El invento de Kummer parecía un tablero rectangular con listones rizados. La suma y la resta se realizaron mediante el movimiento más simple de listones. Es interesante que la calculadora de Kummer, presentada en 1946 en la Academia de Ciencias de San Petersburgo, se centrara en cálculos monetarios.

En Rusia, además del dispositivo Slonimsky y las modificaciones del numerador de Kummer, eran bastante populares las llamadas barras de conteo, inventadas en 1881 por el científico Ioffe.

George Boole

En 1847, el matemático inglés George Boole (1815-1864) publicó la obra "Análisis matemático de la lógica". Así apareció una nueva rama de las matemáticas. Se llamó álgebra de Boole. Cada valor que contiene sólo puede tomar uno de dos valores: verdadero o falso, 1 o 0. Esta álgebra fue muy útil para los creadores de las computadoras modernas. Después de todo, la computadora sólo entiende dos símbolos: 0 y 1. Se le considera el fundador de la lógica matemática moderna.

1855 Los hermanos George y Edvard Scheutz de Estocolmo construyen la primera computadora mecánica utilizando el trabajo de Ch. Babbage.

En 1867, Bunyakovsky inventó las autocalculadoras, que se basaban en el principio de ruedas digitales conectadas (engranaje de Pascal).

En 1878, el científico inglés Joseph Swan (1828-1914) inventó la bombilla eléctrica. Era un matraz de vidrio con un filamento de carbono en su interior. Para evitar que el hilo se quemara, Swan eliminó el aire del matraz.

Al año siguiente, el inventor estadounidense Thomas Edison (1847-1931) también inventó la bombilla. En 1880, Edison comenzó a producir bombillas de seguridad y las vendió por 2,50 dólares. Posteriormente, Edison y Swan crearon una empresa conjunta, Edison and Swan United Electric Light Company.

En 1883, mientras experimentaba con una lámpara, Edison insertó un electrodo de platino en un cilindro de vacío, aplicó voltaje y, para su sorpresa, descubrió que circulaba corriente entre el electrodo y el filamento de carbono. Dado que en ese momento el principal objetivo de Edison era prolongar la vida útil de la lámpara incandescente, este resultado le interesó poco, pero el emprendedor estadounidense aún recibió una patente. El fenómeno que conocemos como emisión termoiónica se denominó entonces “efecto Edison” y durante algún tiempo quedó olvidado.

Vilgodt Teófilovich Odner

En 1880 Vilgodt Teofilovich Odner, de nacionalidad sueca, que vivía en San Petersburgo, diseñó una máquina sumadora. Hay que admitir que antes de Odner también existieron máquinas sumadoras: los sistemas de K. Thomas. Sin embargo, eran poco fiables, de gran tamaño e incómodos de operar.

Comenzó a trabajar en la máquina sumadora en 1874 y en 1890 comenzó su producción en masa. Su modificación "Felix" se produjo hasta los años 50. La característica principal de la creación de Odhner es el uso de ruedas dentadas con un número variable de dientes (esta rueda lleva el nombre de Odhner) en lugar de los rodillos escalonados de Leibniz. Es estructuralmente más simple que un rodillo y tiene dimensiones más pequeñas.

Herman Hollerith

En 1884, el ingeniero estadounidense Herman Hillerith (1860-1929) obtuvo una patente “para una máquina censal” (tabulador estadístico). El invento incluía una tarjeta perforada y una máquina clasificadora. La tarjeta perforada de Hollerith resultó ser tan exitosa que ha existido hasta el día de hoy sin el más mínimo cambio.

La idea de poner datos en tarjetas perforadas y luego leerlas y procesarlas automáticamente pertenecía a John Billings, y su solución técnica pertenecía a Herman Hollerith.

El tabulador aceptaba tarjetas del tamaño de un billete de un dólar. Había 240 posiciones en las tarjetas (12 filas de 20 posiciones). Al leer información de tarjetas perforadas, se perforaron 240 agujas. Cuando la aguja entró en el agujero, cerró un contacto eléctrico, como resultado de lo cual el valor en el contador correspondiente aumentó en uno.

Desarrollo de la tecnología informática.

a principios del siglo XX

1904 El famoso matemático, constructor naval y académico ruso A.N. Krylov propuso el diseño de una máquina para integrar ecuaciones diferenciales ordinarias, que fue construida en 1912.

El físico inglés John Ambrose Fleming (1849-1945), al estudiar el "efecto Edison", crea un diodo. Los diodos se utilizan para convertir ondas de radio en señales eléctricas que pueden transmitirse a largas distancias.

Dos años más tarde, gracias a los esfuerzos del inventor estadounidense Lee di Forest, aparecieron los triodos.

1907 El ingeniero estadounidense J. Power diseñó una perforadora automática de tarjetas.

El científico de San Petersburgo Boris Rosing solicita una patente para un tubo de rayos catódicos como receptor de datos.

1918 El científico ruso M.A. Bonch-Bruevich y los científicos ingleses V. Iccles y F. Jordan (1919) crearon de forma independiente un dispositivo electrónico, llamado por los británicos disparador, que jugó un papel importante en el desarrollo de la tecnología informática.

En 1930, Vannevar Bush (1890-1974) diseña un analizador diferencial. De hecho, este es el primer intento exitoso de crear una computadora capaz de realizar cálculos científicos engorrosos. El papel de Bush en la historia de la tecnología informática es muy importante, pero su nombre aparece con mayor frecuencia en relación con el artículo profético "Como podemos pensar" (1945), en el que describe el concepto de hipertexto.

Konrad Zuse creó la computadora Z1, que tenía un teclado para ingresar condiciones problemáticas. Al finalizar los cálculos, el resultado se mostraba en un panel con muchas luces pequeñas. La superficie total ocupada por la máquina fue de 4 m2.

Konrad Zuse patentó un método de cálculo automático.

Para el siguiente modelo Z2, K. Zuse ideó un dispositivo de entrada muy ingenioso y económico: Zuse comenzó a codificar instrucciones para la máquina perforando agujeros en películas fotográficas usadas de 35 mm.

En 1838 El matemático e ingeniero estadounidense Claude Shannon y el científico ruso V. I. Shestakov mostraron en 1941 la posibilidad de un aparato de lógica matemática para la síntesis y análisis de sistemas de conmutación de contactos de relé.

En 1938, la compañía telefónica Bell Laboratories creó el primer sumador binario (un circuito eléctrico que realizaba una suma binaria), uno de los componentes principales de cualquier computadora. El autor de la idea fue George Stibits, quien experimentó con álgebra de Boole y varias partes: relés viejos, baterías, bombillas y cableado. En 1940, nació una máquina que podía realizar cuatro operaciones aritméticas con números complejos.

Apariencia y

en los años 40 del siglo XX.

En 1941, el ingeniero de IBM B. Phelps comenzó a trabajar en la creación de contadores electrónicos decimales para tabuladores y en 1942 creó un modelo experimental de un dispositivo multiplicador electrónico. En 1941, Konrad Zuse construyó la primera computadora binaria de relé controlada por programa operativo del mundo, la Z3.

Simultáneamente a la construcción de ENIAC, también en secreto, se creó una computadora en Gran Bretaña. El secreto era necesario porque se estaba diseñando un dispositivo para descifrar los códigos utilizados por las fuerzas armadas alemanas durante la Segunda Guerra Mundial. El método de descifrado matemático fue desarrollado por un grupo de matemáticos, incluido Alan Turing. Durante 1943, se construyó la máquina Colossus en Londres utilizando 1.500 tubos de vacío. Los desarrolladores de la máquina son M. Newman y T. F. Flowers.

Aunque tanto ENIAC como Colossus funcionaban con tubos de vacío, esencialmente copiaron máquinas electromecánicas: el nuevo contenido (electrónica) se comprimió en una forma antigua (la estructura de las máquinas preelectrónicas).

En 1937, el matemático de Harvard Howard Aiken propuso un proyecto para crear una gran máquina calculadora. El trabajo fue patrocinado por el presidente de IBM, Thomas Watson, quien invirtió en él 500 mil dólares. El diseño del Mark-1 comenzó en 1939; el ordenador fue construido por la empresa neoyorquina IBM. La computadora contenía alrededor de 750 mil piezas, 3304 relés y más de 800 km de cables.

En 1944, la máquina terminada fue transferida oficialmente a la Universidad de Harvard.

En 1944, el ingeniero estadounidense John Presper Eckert propuso por primera vez el concepto de programa almacenado en la memoria de una computadora.

Aiken, que contaba con los recursos intelectuales de Harvard y una máquina Mark-1 capaz, recibió varias órdenes del ejército. Así que el siguiente modelo, el Mark-2, fue encargado por la Dirección de Armas de la Marina de los EE. UU. El diseño comenzó en 1945 y la construcción finalizó en 1947. La Mark-2 fue la primera máquina multitarea: varios buses permitieron transmitir simultáneamente varios números de una parte de la computadora a otra.

En 1948, Sergei Aleksandrovich Lebedev (1990-1974) y B.I. Rameev propusieron el primer proyecto de una computadora electrónica digital doméstica. Bajo la dirección del académico Lebedev S.A. y Glushkova V.M. Se están desarrollando ordenadores domésticos: primero MESM, una pequeña máquina calculadora electrónica (1951, Kiev), luego BESM, una máquina calculadora electrónica de alta velocidad (1952, Moscú). Paralelamente se crearon Strela, Ural, Minsk, Hrazdan y Nairi.

En 1949 Se puso en funcionamiento una máquina inglesa de programas almacenados, EDSAC (Electronic Delay Storage Automatic Computer), diseñada por Maurice Wilkes de la Universidad de Cambridge. La computadora EDSAC contenía 3.000 tubos de vacío y era seis veces más productiva que sus predecesoras. Maurice Wilkis introdujo un sistema de mnemónicos para instrucciones de máquina llamado lenguaje ensamblador.

En 1949 John Mauchly creó el primer intérprete de lenguaje de programación llamado "Short Order Code".

Desarrollo de la tecnología informática.

en los años 50 del siglo XX.

En 1951 se completó el trabajo de creación de UNIVAC (Computadora automática universal). El primer ejemplar de la máquina UNIVAC-1 fue construido para la Oficina del Censo de Estados Unidos. A partir de los ordenadores ENIAC y EDVAC se creó el ordenador secuencial síncrono UNIVAC-1, que funcionaba con una frecuencia de reloj de 2,25 MHz y contenía alrededor de 5.000 tubos de vacío. El dispositivo de almacenamiento interno, con una capacidad de 1.000 números decimales de doce bits, se fabricó con 100 líneas de retardo de mercurio.

Esta computadora es interesante porque estaba destinada a una producción relativamente en masa sin cambiar la arquitectura y se prestó especial atención a la parte periférica (instalaciones de entrada y salida).

Memoria de núcleo magnético patentada por Jay Forrester. Por primera vez se utilizó dicha memoria en la máquina Whirlwind-1. Constaba de dos cubos con 32x32x17 núcleos, que proporcionaban almacenamiento de 2048 palabras para números binarios de 16 bits con un bit de paridad.

Esta máquina fue la primera en utilizar un bus universal no especializado (las relaciones entre varios dispositivos informáticos se vuelven flexibles) y se utilizaron dos dispositivos como sistemas de entrada y salida: un tubo de rayos catódicos Williams y una máquina de escribir con cinta de papel perforada (flexowriter).

"Tradis", estrenada en 1955. - la primera computadora de transistores de Bell Telephone Laboratories - contenía 800 transistores, cada uno de los cuales estaba encerrado en una carcasa separada.

En 1957 En el modelo IBM 350 RAMAC apareció por primera vez la memoria en disco (discos de aluminio magnetizados con un diámetro de 61 cm).

G. Simon, A. Newell, J. Shaw crearon el GPS, un solucionador de problemas universal.

En 1958 Jack Kilby de Texas Instruments y Robert Noyce de Fairchild Semiconductor inventan de forma independiente el circuito integrado.

1955-1959 Los científicos rusos A.A. Lyapunov, S.S. Kamynin, E.Z. Lyubimsky, A.P. Ershov, L.N. Korolev, V.M. Kurochkin, M.R. Shura-Bura y otros crearon "programas de programación", prototipos de traductores. V.V. Martynyuk creó un sistema de codificación simbólica, un medio para acelerar el desarrollo y la depuración de programas.

1955-1959 Se sentaron las bases para la teoría de la programación (A.A. Lyapunov, Yu.I. Yanov, A.A. Markov, L.A. Kaluzhin) y los métodos numéricos (V.M. Glushkov, A.A. Samarsky, A.N. Tikhonov). Se modelan esquemas del mecanismo del pensamiento y procesos genéticos, algoritmos para diagnosticar enfermedades médicas (A.A. Lyapunov, B.V. Gnedenko, N.M. Amosov, A.G. Ivakhnenko, V.A. Kovalevsky, etc.).

1959 Bajo el liderazgo de S.A. Lebedev creó la máquina BESM-2 con una productividad de 10 mil operaciones por segundo. Su uso está asociado con los cálculos de los lanzamientos de cohetes espaciales y de los primeros satélites terrestres artificiales del mundo.

1959 Se crea la máquina M-20, diseñador jefe S.A. Lébedev. Para su época, uno de los más rápidos del mundo (20 mil operaciones/s). Esta máquina se utilizó para resolver la mayoría de problemas teóricos y aplicados relacionados con el desarrollo de los campos más avanzados de la ciencia y la tecnología de la época. Sobre la base del M-20 se creó el exclusivo multiprocesador M-40, el ordenador más rápido del mundo en aquella época (40 mil operaciones por segundo). El M-20 fue sustituido por los semiconductores BESM-4 y M-220 (200 mil operaciones/s).

Desarrollo de la tecnología informática.

en los años 60 del siglo XX.

En 1960, por un corto tiempo, el grupo CADASYL (Conferencia sobre lenguajes de sistemas de datos), liderado por Joy Wegstein y con el apoyo de IBM, desarrolló un lenguaje de programación empresarial estandarizado, COBOL (lenguaje común orientado a los negocios). Este lenguaje está enfocado a resolver problemas económicos, o más precisamente, al procesamiento de información.

Ese mismo año, J. Schwartz y otros de la empresa System Development desarrollaron el lenguaje de programación Jovial. El nombre proviene de la propia versión de Jule del lenguaje algorítmico internacional: Java procesal, versión de Algol-58, utilizada principalmente para aplicaciones militares por la Fuerza Aérea de EE. UU.

IBM ha desarrollado un potente sistema informático llamado Stretch (IBM 7030).

1961 IBM Deutschland implementó la conexión de una computadora a una línea telefónica mediante un módem.

Además, el profesor estadounidense John McCartney desarrolló el lenguaje LISP (lenguaje de procesamiento de listas).

J. Gordon, jefe de desarrollo de sistemas de simulación de IBM, creó el lenguaje GPSS (General Purpose Simulation System).

Los empleados de la Universidad de Manchester, bajo el liderazgo de T. Kilburn, crearon la computadora Atlas, que por primera vez implementó el concepto de memoria virtual. La primera minicomputadora (PDP-1) apareció antes de 1971, momento de la creación del primer microprocesador (Intel 4004).

En 1962, R. Griswold desarrolló el lenguaje de programación SNOBOL, centrado en el procesamiento de cadenas.

Steve Russell desarrolló el primer juego de ordenador. Desafortunadamente, no se sabe qué tipo de juego fue.

E.V. Evreinov y Yu. Kosarev propusieron un modelo de equipo de computadoras y fundamentaron la posibilidad de construir supercomputadoras sobre los principios de ejecución paralela de operaciones, estructura lógica variable y homogeneidad estructural.

IBM lanzó los primeros dispositivos de memoria externa con discos extraíbles.

Kenneth E. Iverson (IBM) publicó un libro llamado “Un lenguaje de programación” (APL). Inicialmente, este lenguaje sirvió como notación para escribir algoritmos. La primera implementación de APL/360 fue en 1966 por Adin Falkoff (Harvard, IBM). Existen versiones de intérpretes para PC. Debido a la dificultad de leer los programas de submarinos nucleares, a veces se le llama “BÁSICO chino”. En realidad, es un lenguaje procedimental, muy compacto y de nivel ultraalto. Requiere un teclado especial. Mayor desarrollo – APL2.

1963 Se ha aprobado el código estándar americano para el intercambio de información: ASCII (American Standard Code Informatio Interchange).

General Electric creó el primer DBMS (sistema de gestión de bases de datos) comercial.

1964 U. Dahl y K. Nygort crearon el lenguaje de modelado SIMULA-1.

En 1967 Bajo el liderazgo de S.A. Lebedev y V.M. Melnikov, se creó una máquina informática de alta velocidad BESM-6 en ITM y VT.

Le siguió "Elbrus", un nuevo tipo de ordenador con una productividad de 10 millones de operaciones por segundo.

Desarrollo de la tecnología informática.

en los años 70 del siglo XX.

En 1970 Charles Murr, empleado del Observatorio Nacional de Radioastronomía, creó el lenguaje de programación FORT.

Denis Ritchie y Kenneth Thomson lanzan la primera versión de Unix.

El Dr. Codd publica el primer artículo sobre el modelo de datos relacionales.

En 1971 Intel (EE. UU.) creó el primer microprocesador (MP), un dispositivo lógico programable fabricado con tecnología VLSI.

El procesador 4004 era de 4 bits y podía realizar 60 mil operaciones por segundo.

1974 Intel desarrolla el primer microprocesador universal de ocho bits, el 8080, con 4500 transistores. Edward Roberts de MITS construyó la primera computadora personal, Altair, con un nuevo chip de Intel, el 8080. Altair resultó ser la primera PC producida en masa, lo que esencialmente marcó el comienzo de toda una industria. El kit incluía un procesador, un módulo de memoria de 256 bytes, un bus del sistema y algunas cositas más.

El joven programador Paul Allen y el estudiante de la Universidad de Harvard Bill Gates implementaron el lenguaje BASIC para Altair. Posteriormente fundaron Microsoft, que hoy es el mayor fabricante de software.

Desarrollo de la tecnología informática.

en los años 80 del siglo XX.

1981 Compaq lanzó la primera computadora portátil.

Niklaus Wirth desarrolló el lenguaje de programación MODULA-2.

Se creó la primera computadora portátil: Osborne-1, que pesaba unos 12 kg. A pesar de un comienzo bastante exitoso, la empresa quebró dos años después.

1981 IBM lanzó la primera computadora personal, la IBM PC, basada en el microprocesador 8088.

1982 Intel lanza el microprocesador 80286.

La empresa estadounidense de fabricación de ordenadores IBM, que anteriormente ocupaba una posición de liderazgo en la producción de ordenadores grandes, comenzó a producir ordenadores personales profesionales IBM PC con el sistema operativo MS DOS.

Sun comenzó a producir las primeras estaciones de trabajo.

Corporación de desarrollo Lotus. lanzó la hoja de cálculo Lotus 1-2-3.

La empresa inglesa Inmos, basándose en las ideas del profesor de la Universidad de Oxford Tony Hoare sobre "procesos secuenciales interactivos" y el concepto del lenguaje de programación experimental David May, creó el lenguaje OCCAM.

1985 Intel lanzó un microprocesador 80386 de 32 bits, que consta de 250 mil transistores.

Seymour Cray creó la supercomputadora CRAY-2 con una capacidad de mil millones de operaciones por segundo.

Microsoft lanzó la primera versión del entorno operativo gráfico de Windows.

La aparición de un nuevo lenguaje de programación, C++.

Desarrollo de la tecnología informática.

en los años 90 del siglo XX.

1990 Microsoft lanzó Windows 3.0.

Tim Berners-Lee desarrolló el lenguaje HTML (Hypertext Markup Language; el formato principal de los documentos web) y el prototipo de la World Wide Web.

Cray lanzó la supercomputadora Cray Y-MP C90 con 16 procesadores y una velocidad de 16 Gflops.

1991 Microsoft lanzó Windows 3.1.

Formato gráfico JPEG desarrollado.

Philip Zimmerman inventó PGP, un sistema de cifrado de mensajes de clave pública.

1992 Apareció el primer sistema operativo gratuito con grandes capacidades: Linux. El estudiante finlandés Linus Torvalds (el autor de este sistema) decidió experimentar con los comandos del procesador Intel 386 y publicó lo que encontró en Internet. Cientos de programadores de todo el mundo comenzaron a agregar y modificar el programa. Ha evolucionado hasta convertirse en un sistema operativo funcional completamente funcional. La historia no dice nada sobre quién decidió llamarlo Linux, pero está bastante claro cómo surgió este nombre. "Linu" o "Lin" en nombre del creador y "x" o "ux" - de UNIX, porque el nuevo sistema operativo era muy similar, solo que ahora funcionaba en computadoras con arquitectura x86.

DEC presentó el primer procesador RISC Alpha de 64 bits.

1993 Intel lanzó un microprocesador Pentium de 64 bits, que constaba de 3,1 millones de transistores y podía realizar 112 millones de operaciones por segundo.

Ha aparecido el formato de compresión de vídeo MPEG.

1994 Inicio del lanzamiento por parte de Power Mac de la serie Apple Computers - Power PC.

1995 DEC anunció el lanzamiento de cinco nuevos modelos de computadoras personales Celebris XL.

NEC anunció la finalización del desarrollo del primer chip del mundo con una capacidad de memoria de 1 GB.

Apareció el sistema operativo Windows 95.

SUN introdujo el lenguaje de programación Java.

Ha aparecido el formato RealAudio, una alternativa al MPEG.

1996 Microsoft lanzó Internet Explorer 3.0, un competidor bastante serio de Netscape Navigator.

1997 Apple lanza el sistema operativo Macintosh OS 8.

Conclusión

La computadora personal entró rápidamente en nuestras vidas. Hace apenas unos años era raro ver algún tipo de computadora personal: existían, pero eran muy caras y ni siquiera todas las empresas podían tener una computadora en su oficina. Ahora uno de cada tres hogares tiene una computadora, que ya está profundamente arraigada en la vida humana.

Los ordenadores modernos representan uno de los logros más importantes del pensamiento humano, cuya influencia en el desarrollo del progreso científico y tecnológico difícilmente puede subestimarse. El alcance de las aplicaciones informáticas es enorme y está en constante expansión.

Mi investigación

Número de ordenadores propiedad de los estudiantes en la escuela en 2007.

Numero de estudiantes

tener computadoras

Porcentaje de la cantidad total

Número de ordenadores propiedad de los estudiantes en la escuela en 2008.

Numero de estudiantes

tener computadoras

Porcentaje de la cantidad total

Aumento del número de ordenadores entre los estudiantes:

El auge de las computadoras en la escuela

Conclusión

Desafortunadamente, es imposible abarcar toda la historia de las computadoras en el marco de un resumen. Podríamos hablar durante mucho tiempo de cómo en el pequeño pueblo de Palo Alto (California) en el centro de investigación Xerox PARK, se reunió la flor y nata de los programadores de esa época para desarrollar conceptos revolucionarios que cambiaron radicalmente la imagen de los automóviles y allanaron el camino. para ordenadores de finales del siglo XX. Cuando era un colegial talentoso, Bill Gates y su amigo Paul Allen conocieron a Ed Robertson y crearon el asombroso lenguaje BASIC para la computadora Altair, que hizo posible desarrollar programas de aplicación para ella. A medida que la apariencia de la computadora personal fue cambiando gradualmente, aparecieron un monitor y un teclado, una unidad de disquete, los llamados disquetes, y luego un disco duro. Una impresora y un mouse se convirtieron en accesorios integrales. Se podría hablar de una guerra invisible en los mercados informáticos por el derecho a establecer estándares entre la gran corporación IBM y la joven Apple, que se atrevió a competir con ella, obligando al mundo entero a decidir qué es mejor, ¿Macintosh o PC? Y sobre muchas otras cosas interesantes que sucedieron recientemente, pero que ya han pasado a la historia.

Para muchos, un mundo sin computadora es una historia lejana, casi tan lejana como el descubrimiento de América o la Revolución de Octubre. Pero cada vez que enciendes la computadora es imposible dejar de sorprenderte ante el genio humano que creó este milagro.

Las computadoras personales modernas compatibles con IBM PC son el tipo de computadora más utilizado, su potencia crece constantemente y su alcance se expande. Estas computadoras se pueden conectar en red, lo que permite que decenas o cientos de usuarios intercambien información fácilmente y accedan simultáneamente a bases de datos. El correo electrónico permite a los usuarios de computadoras enviar mensajes de texto y fax a otras ciudades y países utilizando la red telefónica regular y recuperar información de grandes bancos de datos. El sistema global de comunicación electrónica Internet brinda una oportunidad de costo extremadamente bajo para recibir rápidamente información desde todos los rincones del mundo, proporciona capacidades de comunicación por voz y fax y facilita la creación de redes de transmisión de información intracorporativas para empresas con sucursales en diferentes ciudades y países. Sin embargo, las capacidades de las computadoras personales compatibles con IBM PC para procesar información aún son limitadas y su uso no está justificado en todas las situaciones.

Para comprender la historia de la tecnología informática, el resumen revisado tiene al menos dos aspectos: primero, todas las actividades relacionadas con la computación automática antes de la creación de la computadora ENIAC fueron consideradas como prehistoria; en segundo lugar, el desarrollo de la tecnología informática se define únicamente en términos de tecnología de hardware y circuitos de microprocesadores.

Bibliografía:

1. Guk M. “IBM PC Hardware” - San Petersburgo: “Peter”, 1997.

2. Ozertsovsky S. “Microprocesadores Intel: del 4004 al Pentium Pro”, revista Computer Week #41 –

3. Figurnov V.E. “IBM PC para el usuario” - M.: “Infra-M”, 1995.

4. Figurnov V.E. “PC IBM para el usuario. Curso corto" - M.: 1999.

5. 1996 Frolov A.V., Frolov G.V. “Hardware para PC IBM” - M.: DIALOG-MEPhI, 1992.

CONCEPTOS BÁSICOS DE LA PC

La gente siempre ha sentido la necesidad de contar. Para ello utilizaron sus dedos, guijarros, que amontonaron o colocaron en fila. El número de objetos se registró mediante líneas que se trazaron a lo largo del suelo, mediante muescas en palos y nudos atados a una cuerda.

Con el aumento del número de objetos a contar y el desarrollo de las ciencias y oficios, surgió la necesidad de realizar cálculos sencillos. El instrumento más antiguo conocido en varios países es el ábaco (en la Antigua Roma se les llamaba cálculos). Le permiten realizar cálculos simples con números grandes. El ábaco resultó ser una herramienta tan exitosa que ha sobrevivido desde la antigüedad casi hasta nuestros días.

Nadie puede indicar la hora y el lugar exactos de aparición de los billetes. Los historiadores coinciden en que su edad es de varios miles de años y que su tierra natal puede ser la antigua China, el antiguo Egipto y la antigua Grecia.

1.1. CUENTO

DESARROLLOS DE EQUIPOS INFORMÁTICOS

Con el desarrollo de las ciencias exactas surgió la urgente necesidad de realizar una gran cantidad de cálculos precisos. En 1642, el matemático francés Blaise Pascal construyó la primera máquina sumadora mecánica, conocida como máquina sumadora de Pascal (Figura 1.1). Esta máquina era una combinación de ruedas y transmisiones entrelazadas. Las ruedas estaban marcadas con números del 0 al 9. Cuando la primera rueda (unidades) hacía una revolución completa, la segunda rueda (decenas) se activaba automáticamente; cuando llegó al número 9, la tercera rueda empezó a girar, etc. La máquina de Pascal sólo podía sumar y restar.

En 1694, el matemático alemán Gottfried Wilhelm von Leibniz diseñó una máquina calculadora más avanzada (figura 1.2). Estaba convencido de que su invento encontraría una amplia aplicación no sólo en la ciencia, sino también en la vida cotidiana. A diferencia de la máquina de Pascal, Leibniz utilizó cilindros en lugar de ruedas y accionamientos. Los cilindros estaban marcados con números. Cada cilindro tenía nueve filas de proyecciones o dientes. En este caso, la primera fila contenía 1 protuberancia, la segunda - 2, y así sucesivamente hasta la novena fila, que contenía 9 protuberancias. Los cilindros eran móviles y el operador los colocaba en una posición determinada. El diseño de la máquina de Leibniz era más avanzado: era capaz de realizar no sólo sumas y restas, sino también multiplicaciones, divisiones e incluso extracción de raíces cuadradas.

Curiosamente, los descendientes de este diseño sobrevivieron hasta los años 70 del siglo XX. en forma de calculadoras mecánicas (máquina sumadora tipo Felix) y fueron ampliamente utilizados para diversos cálculos (Fig. 1.3). Sin embargo, ya a finales del siglo XIX. Con la invención del relé electromagnético aparecieron los primeros dispositivos de conteo electromecánicos. En 1887, Herman Hollerith (EE.UU.) inventó un tabulador electromecánico en el que los números se ingresaban mediante tarjetas perforadas. La idea de utilizar tarjetas perforadas se inspiró en la perforación de billetes de tren con una perforadora. La tarjeta perforada de 80 columnas que desarrolló no sufrió cambios significativos y se utilizó como soporte de información en las tres primeras generaciones de computadoras. Los tabuladores Hollerith se utilizaron durante el primer censo de población en Rusia en 1897. Posteriormente, el propio inventor realizó una visita especial a San Petersburgo. Desde entonces, los tabuladores electromecánicos y otros dispositivos similares se han utilizado ampliamente en contabilidad.

A principios del siglo XIX. Charles Babbage formuló los principios básicos que deberían sustentar el diseño de un tipo de computadora fundamentalmente nuevo.

En tal máquina, en su opinión, debería haber un "almacén" para almacenar información digital, un dispositivo especial que realice operaciones con números extraídos del "almacén". Babbage llamó a este dispositivo “molino”. Se utiliza otro dispositivo para controlar la secuencia de operaciones, la transferencia de números del "almacén" al "molino" y viceversa y, finalmente, la máquina debe tener un dispositivo para ingresar los datos iniciales y generar los resultados de los cálculos. Esta máquina nunca se construyó; sólo existían modelos (Fig. 1.4), pero los principios subyacentes se implementaron más tarde en computadoras digitales.

Las ideas científicas de Babbage cautivaron a la hija del famoso poeta inglés Lord Byron, la condesa Ada Augusta Lovelace. Ella estableció las primeras ideas fundamentales sobre la interacción de varios bloques de una computadora y la secuencia de resolución de problemas en ella. Por lo tanto, Ada Lovelace es considerada legítimamente la primera programadora del mundo. Muchos de los conceptos introducidos por Ada Lovelace en las descripciones de los primeros programas del mundo son ampliamente utilizados por los programadores modernos.

Arroz. 1.1. La máquina sumadora de Pascal

Arroz. 1.2. maquina de calcular leibniz

Arroz. 1.3. Máquina sumadora Félix

Arroz. 1.4. La máquina de Babbage

El comienzo de una nueva era en el desarrollo de la tecnología informática basada en relés electromecánicos se produjo en 1934. La empresa estadounidense IBM (International Business Machines) comenzó a producir tabuladores alfanuméricos capaces de realizar operaciones de multiplicación. A mediados de los años 30 del siglo XX. A partir de tabuladores se crea un prototipo de la primera red informática local. En Pittsburgh (EE.UU.), unos grandes almacenes instalaron un sistema compuesto por 250 terminales conectados mediante líneas telefónicas con 20 tabuladores y 15 máquinas de escribir para pagos a clientes. En 1934 - 1936 Al ingeniero alemán Konrad Zuse se le ocurrió la idea de crear una computadora universal con control de programa y almacenamiento de información en un dispositivo de memoria. Diseñó la máquina Z-3, fue la primera computadora controlada por programa, el prototipo de las computadoras modernas (Fig. 1.5).


Arroz. 1.5. computadora zuse

Era una máquina de retransmisión que utilizaba un sistema numérico binario y tenía una memoria para 64 números de coma flotante. El bloque aritmético utilizó aritmética paralela. El equipo incluía partes operativas y de dirección. La entrada de datos se realizó mediante un teclado decimal, se proporcionó salida digital, así como conversión automática de números decimales a binarios y viceversa. La velocidad de la operación de suma es de tres operaciones por segundo.

A principios de los años 40 del siglo XX. En los laboratorios de IBM, junto con científicos de la Universidad de Harvard, se inició el desarrollo de una de las computadoras electromecánicas más potentes. Se llamó MARK-1, contenía 760 mil componentes y pesaba 5 toneladas (Fig. 1.6).

Arroz. 1.6. Maquina calculadoraMARCA-1

El último gran proyecto en el campo de la tecnología de computación por retransmisión (CT) debe considerarse el RVM-1, construido en 1957 en la URSS, que era bastante competitivo con las computadoras de esa época en una serie de tareas. Sin embargo, con la llegada del tubo de vacío, los días de los dispositivos electromecánicos estaban contados. Los componentes electrónicos tenían una gran superioridad en velocidad y confiabilidad, lo que determinó el destino futuro de las computadoras electromecánicas. Ha llegado la era de las computadoras electrónicas.

La transición a la siguiente etapa en el desarrollo de la tecnología informática y la tecnología de programación sería imposible sin una investigación científica fundamental en el campo de la transmisión y el procesamiento de información. El desarrollo de la teoría de la información se asocia principalmente con el nombre de Claude Shannon. Norbert Wiener es considerado legítimamente el padre de la cibernética y Heinrich von Neumann es el creador de la teoría de los autómatas.

El concepto de cibernética nació de la síntesis de muchas direcciones científicas: en primer lugar, como un enfoque general para la descripción y análisis de las acciones de organismos vivos y computadoras u otros autómatas; en segundo lugar, de las analogías entre el comportamiento de las comunidades de organismos vivos y la sociedad humana y la posibilidad de describirlos utilizando una teoría general del control; y, finalmente, de la síntesis de la teoría de la transferencia de información y la física estadística, que condujo al descubrimiento más importante que vincula la cantidad de información y la entropía negativa de un sistema. El término "cibernética" proviene de la palabra griega que significa "timonel", y fue utilizado por primera vez en el sentido moderno por N. Wiener en 1947. El libro de N. Wiener, en el que formuló los principios básicos de la cibernética, se llama "Cibernética". o control y comunicación en animal y coche."

Claude Shannon es un ingeniero y matemático estadounidense, considerado el padre de la teoría de la información moderna. Demostró que el funcionamiento de interruptores y relés en circuitos eléctricos se puede representar mediante el álgebra, inventada a mediados del siglo XIX. El matemático inglés George Boole. Desde entonces, el álgebra de Boole se ha convertido en la base para analizar la estructura lógica de sistemas de cualquier nivel de complejidad.

Shannon demostró que cualquier canal de comunicación ruidoso se caracteriza por una velocidad límite de transmisión de información, llamada límite de Shannon. A velocidades de transmisión superiores a este límite, los errores en la información transmitida son inevitables. Sin embargo, utilizando métodos de codificación de información adecuados, es posible obtener una probabilidad de error arbitrariamente pequeña para cualquier canal ruidoso. Su investigación sentó las bases para el desarrollo de sistemas de transmisión de información a través de líneas de comunicación.

En 1946, el brillante matemático estadounidense de origen húngaro, Heinrich von Neumann, formuló el concepto básico de almacenar instrucciones de computadora en su propia memoria interna, lo que supuso un gran impulso para el desarrollo de la tecnología de computación electrónica.

Durante la Segunda Guerra Mundial, se desempeñó como consultor en el Centro Atómico de Los Álamos, donde trabajó en cálculos para la detonación explosiva de una bomba nuclear y participó en el desarrollo de la bomba de hidrógeno.

Neumann posee trabajos relacionados con la organización lógica de las computadoras, problemas del funcionamiento de la memoria de la computadora, sistemas de autorreproducción, etc. Participó en la creación de la primera computadora electrónica ENIAC, la arquitectura de la computadora que propuso fue la base para todas las posteriores. modelos y todavía se llama así: "von Neumann"

I generación de computadoras. En 1946, se completó en Estados Unidos el trabajo para crear ENIAC, la primera computadora que utilizó componentes electrónicos (Fig. 1.7).

Arroz. 1.7. Primera computadoraENIAC

La nueva máquina tenía unos parámetros impresionantes: utilizaba 18 mil tubos electrónicos, ocupaba una habitación con una superficie de 300 m 2, pesaba 30 toneladas y consumía energía 150 kW. La máquina funcionaba a una frecuencia de reloj de 100 kHz y realizaba una operación de suma en 0,2 ms y una multiplicación en 2,8 ms, lo que era tres órdenes de magnitud más rápido de lo que podían hacer las máquinas de retransmisión. Las deficiencias del nuevo coche se revelaron rápidamente. En su estructura, la computadora ENIAC se parecía a las computadoras mecánicas: se utilizaba el sistema decimal; el programa se escribió manualmente en 40 campos tipográficos; Se necesitaron semanas para reconfigurar los campos de conmutación. Durante la operación de prueba, resultó que la confiabilidad de esta máquina es muy baja: la resolución de problemas tomó varios días. Para la entrada y salida de datos se utilizaron cintas perforadas y tarjetas perforadas, cintas magnéticas y dispositivos de impresión. Las computadoras de primera generación implementaron el concepto de programa almacenado. Las computadoras de primera generación se utilizaron para pronosticar el tiempo, resolver problemas energéticos, problemas militares y en otras áreas importantes.

II generación de ordenadores. Uno de los avances más importantes que condujo a la revolución en el diseño de computadoras y, en última instancia, a la creación de las computadoras personales fue la invención del transistor en 1948. El transistor, que es un elemento de conmutación electrónico (puerta) de estado sólido, ocupa mucho menos ocupa mucho menos espacio y consume mucha menos energía, haciendo el mismo trabajo que una lámpara. Los sistemas informáticos construidos con transistores eran mucho más compactos, más económicos y mucho más eficientes que los de válvulas. La transición a los transistores marcó el comienzo de la miniaturización, que hizo posible la aparición de las computadoras personales modernas (así como otros dispositivos de radio: radios, grabadoras, televisores, etc.). Para las máquinas de la generación II, surgió la tarea de automatizar la programación, a medida que aumentaba la brecha entre el tiempo para desarrollar programas y el tiempo de cálculo en sí. La segunda etapa en el desarrollo de la tecnología informática a finales de los años 50 y principios de los 60 del siglo XX. caracterizado por la creación de lenguajes de programación desarrollados (Algol, Fortran, Cobol) y el dominio del proceso de automatización de la gestión del flujo de tareas utilizando la propia computadora, es decir. desarrollo de sistemas operativos.

La computadora que crearon funcionó mil veces más rápido que la Mark 1. Pero resultó que la mayor parte del tiempo esta computadora estuvo inactiva, porque para configurar el método de cálculo (programa) en esta computadora fue necesario conectar los cables de la manera requerida durante varias horas o incluso varios días. Y el cálculo en sí podría tardar sólo unos minutos o incluso segundos.

Para simplificar y acelerar el proceso de configuración de programas, Mauchly y Eckert comenzaron a diseñar una nueva computadora que pudiera almacenar el programa en su memoria. En 1945, el famoso matemático John von Neumann se puso a trabajar y preparó un informe en esta computadora. El informe fue enviado a muchos científicos y se hizo ampliamente conocido porque en él von Neumann formuló clara y simplemente los principios generales del funcionamiento de las computadoras, es decir, los dispositivos informáticos universales. Y hasta el día de hoy, la gran mayoría de las computadoras se fabrican de acuerdo con los principios que John von Neumann esbozó en su informe de 1945. La primera computadora que incorporó los principios de von Neumann fue construida en 1949 por el investigador inglés Maurice Wilkes.

El desarrollo de la primera máquina electrónica en serie UNIVAC (Universal Automatic Computer) comenzó alrededor de 1947 por Eckert y Mauchli, quienes fundaron la empresa ECKERT-MAUCHLI en diciembre del mismo año. El primer modelo de la máquina (UNIVAC-1) se construyó para la Oficina del Censo de EE. UU. y se puso en funcionamiento en la primavera de 1951. La computadora secuencial síncrona UNIVAC-1 se creó sobre la base de las computadoras ENIAC y EDVAC. Funcionaba con una frecuencia de reloj de 2,25 MHz y contenía alrededor de 5.000 tubos de vacío. El dispositivo de almacenamiento interno con capacidad para 1000 números decimales de 12 bits se implementó en 100 líneas de retardo de mercurio.

Poco después de la puesta en funcionamiento de la máquina UNIVAC-1, a sus desarrolladores se les ocurrió la idea de la programación automática. Todo se reducía a garantizar que la propia máquina pudiera preparar la secuencia de comandos necesarios para resolver un problema determinado.

Un fuerte factor limitante en el trabajo de los diseñadores de computadoras a principios de la década de 1950 fue la falta de memoria de alta velocidad. Según uno de los pioneros de la informática, D. Eckert, "la arquitectura de una máquina está determinada por la memoria". Los investigadores centraron sus esfuerzos en las propiedades de memoria de los anillos de ferrita ensartados en matrices de alambre.

En 1951, J. Forrester publicó un artículo sobre el uso de núcleos magnéticos para almacenar información digital. La máquina Whirlwind-1 fue la primera en utilizar memoria de núcleo magnético. Constaba de 2 cubos de 32 x 32 x 17 con núcleos que proporcionaban almacenamiento de 2048 palabras para números binarios de 16 bits con un bit de paridad.

Pronto IBM se involucró en el desarrollo de computadoras electrónicas. En 1952, lanzó su primera computadora electrónica industrial, la IBM 701, que era una computadora paralela síncrona que contenía 4.000 tubos de vacío y 12.000 diodos de germanio. Una versión mejorada de la máquina IBM 704 se distinguía por su alta velocidad, utilizaba registros de índice y representaba datos en forma de punto flotante.

IBM 704
Después de la computadora IBM 704, se lanzó la IBM 709, que, en términos arquitectónicos, se acercaba a las máquinas de segunda y tercera generación. En esta máquina se utilizó por primera vez el direccionamiento indirecto y aparecieron por primera vez canales de E/S.

En 1956, IBM desarrolló cabezales magnéticos flotantes sobre un colchón de aire. Su invención hizo posible crear un nuevo tipo de memoria: los dispositivos de almacenamiento en disco (SD), cuya importancia se apreció plenamente en las décadas posteriores de desarrollo de la tecnología informática. Los primeros dispositivos de almacenamiento en disco aparecieron en máquinas IBM 305 y RAMAC. Este último tenía un paquete compuesto por 50 discos metálicos recubiertos magnéticamente que giraban a una velocidad de 12.000 rpm. La superficie del disco contenía 100 pistas para grabar datos, cada una de las cuales contenía 10.000 caracteres.

Después de la primera computadora de producción UNIVAC-1, Remington-Rand lanzó en 1952 la computadora UNIVAC-1103, que funcionaba 50 veces más rápido. Posteriormente, las interrupciones de software se utilizaron por primera vez en el ordenador UNIVAC-1103.

Los empleados de Rernington-Rand utilizaron una forma algebraica de escribir algoritmos llamado "código corto" (el primer intérprete, creado en 1949 por John Mauchly). Además, es necesario mencionar a la oficial de la Marina de los EE. UU. y líder del equipo de programación, luego capitana (más tarde la única almirante de la Marina) Grace Hopper, quien desarrolló el primer programa compilador. Por cierto, el término "compilador" fue introducido por primera vez por G. Hopper en 1951. Este programa compilador tradujo al lenguaje de máquina todo el programa, escrito en forma algebraica, conveniente para su procesamiento. G. Hopper es también el autor del término "error" aplicado a las computadoras. Una vez, un escarabajo (en inglés, insecto) entró volando al laboratorio a través de una ventana abierta y, posándose sobre los contactos, los cortocircuitó, provocando un mal funcionamiento grave en el funcionamiento de la máquina. El escarabajo quemado fue pegado al registro administrativo, donde se registraron diversas averías. Así se documentó el primer fallo en los ordenadores.

IBM dio los primeros pasos en el campo de la automatización de la programación al crear el "Sistema de codificación rápida" para la máquina IBM 701 en 1953. En la URSS, A. A. Lyapunov propuso uno de los primeros lenguajes de programación. En 1957, un grupo dirigido por D. Backus completó el trabajo en el primer lenguaje de programación de alto nivel, que luego se hizo popular, llamado FORTRAN. El lenguaje, implementado por primera vez en la computadora IBM 704, contribuyó a ampliar el alcance de las computadoras.

Alexey Andreevich Liapunov
En Gran Bretaña, en julio de 1951, en una conferencia en la Universidad de Manchester, M. Wilkes presentó un informe "El mejor método para diseñar una máquina automática", que se convirtió en un trabajo pionero sobre los fundamentos de la microprogramación. El método que propuso para diseñar dispositivos de control ha encontrado una amplia aplicación.

M. Wilkes hizo realidad su idea de la microprogramación en 1957 cuando creó la máquina EDSAC-2. En 1951, M. Wilkes, junto con D. Wheeler y S. Gill, escribieron el primer libro de texto de programación, "Composición de programas para máquinas informáticas electrónicas".

En 1956, Ferranti lanzó la computadora Pegasus, que implementó por primera vez el concepto de registros de propósito general (GPR). Con la llegada de RON, se eliminó la distinción entre registros de índice y acumuladores, y el programador tenía a su disposición no uno, sino varios registros de acumuladores.

La llegada de las computadoras personales

Los microprocesadores se utilizaron por primera vez en una variedad de dispositivos especializados, como las calculadoras. Pero en 1974, varias empresas anunciaron la creación de una computadora personal basada en el microprocesador Intel-8008, es decir, un dispositivo que realiza las mismas funciones que una computadora grande, pero diseñado para un solo usuario. A principios de 1975 apareció la primera computadora personal distribuida comercialmente, la Altair-8800, basada en el microprocesador Intel-8080. Esta computadora se vendió por alrededor de $ 500. Y aunque sus capacidades eran muy limitadas (la RAM era de solo 256 bytes, no había teclado ni pantalla), su aparición fue recibida con gran entusiasmo: se vendieron varios miles de unidades de la máquina en los primeros meses. Los compradores suministraron a esta computadora dispositivos adicionales: un monitor para mostrar información, un teclado, unidades de expansión de memoria, etc. Pronto, otras empresas comenzaron a producir estos dispositivos. A finales de 1975, Paul Allen y Bill Gates (futuros fundadores de Microsoft) crearon un intérprete de lenguaje básico para la computadora Altair, que permitía a los usuarios comunicarse fácilmente con la computadora y escribir programas fácilmente para ella. Esto también contribuyó al aumento de la popularidad de las computadoras personales.

El éxito del Altair-8800 obligó a muchas empresas a empezar también a producir ordenadores personales. Las computadoras personales comenzaron a venderse completamente equipadas, con teclado y monitor, y la demanda de ellas ascendía a decenas y luego cientos de miles de unidades por año. Aparecieron varias revistas dedicadas a las computadoras personales. El crecimiento de las ventas se vio facilitado en gran medida por numerosos programas útiles de importancia práctica. También aparecieron programas distribuidos comercialmente, por ejemplo el programa de edición de textos WordStar y el procesador de hojas de cálculo VisiCalc (1978 y 1979, respectivamente). Estos y muchos otros programas hicieron que la compra de computadoras personales fuera muy rentable para las empresas: con su ayuda fue posible realizar cálculos contables, redactar documentos, etc. El uso de computadoras grandes para estos fines era demasiado costoso.

A finales de la década de 1970, la proliferación de las computadoras personales provocó incluso una ligera disminución en la demanda de computadoras grandes y minicomputadoras (minicomputadoras). Esto se convirtió en un motivo de gran preocupación para IBM, la empresa líder en la producción de computadoras grandes, y en 1979 IBM decidió probar suerte en el mercado de las computadoras personales. Sin embargo, la dirección de la empresa subestimó la importancia futura de este mercado y consideró la creación de un ordenador personal sólo como un experimento menor, algo así como una docena de trabajos realizados en la empresa para crear nuevos equipos. Para no gastar demasiado dinero en este experimento, la dirección de la empresa dio a la unidad responsable de este proyecto una libertad sin precedentes en la empresa. En particular, se le permitió no diseñar una computadora personal desde cero, sino utilizar bloques fabricados por otras empresas. Y esta unidad aprovechó al máximo la oportunidad que se le presentó.

Como microprocesador principal de la computadora se eligió el entonces último microprocesador de 16 bits Intel-8088. Su uso permitió aumentar significativamente las capacidades potenciales de la computadora, ya que el nuevo microprocesador permitía trabajar con 1 megabyte de memoria, y todas las computadoras disponibles en ese momento estaban limitadas a 64 kilobytes.

En agosto de 1981, se presentó oficialmente al público una nueva computadora llamada IBM PC y poco después ganó gran popularidad entre los usuarios. Un par de años más tarde, la PC IBM tomó una posición de liderazgo en el mercado, desplazando a los modelos de computadora de 8 bits.

PC IBM
El secreto de la popularidad de la PC de IBM es que IBM no hizo de su computadora un dispositivo de una sola pieza y no protegió su diseño con patentes. En cambio, ensambló la computadora a partir de piezas fabricadas de forma independiente y no mantuvo en secreto las especificaciones de esas piezas ni cómo estaban conectadas. Por el contrario, los principios de diseño del IBM PC estaban disponibles para todos. Este enfoque, llamado principio de arquitectura abierta, hizo que la PC de IBM fuera un éxito sorprendente, aunque impidió que IBM compartiera los beneficios de su éxito. Así es como la arquitectura abierta de la PC de IBM influyó en el desarrollo de las computadoras personales.

La promesa y la popularidad del IBM PC hicieron muy atractiva la producción de diversos componentes y dispositivos adicionales para el IBM PC. La competencia entre fabricantes ha dado lugar a componentes y dispositivos más baratos. Muy pronto, muchas empresas dejaron de contentarse con el papel de fabricantes de componentes para IBM PC y comenzaron a ensamblar sus propios ordenadores compatibles con IBM PC. Dado que estas empresas no necesitaban soportar los enormes costos de investigación y mantenimiento de la estructura de una gran empresa que incurría en IBM, pudieron vender sus computadoras mucho más baratas (a veces 2 o 3 veces) que computadoras similares de IBM.

Las computadoras compatibles con IBM PC inicialmente fueron llamadas desdeñosamente "clones", pero este apodo no tuvo éxito, ya que muchos fabricantes de computadoras compatibles con IBM PC comenzaron a implementar avances técnicos más rápido que la propia IBM. Los usuarios pudieron actualizar sus computadoras de forma independiente y equiparlas con dispositivos adicionales de cientos de fabricantes diferentes.

Computadoras personales del futuro

La base de los ordenadores del futuro no serán los transistores de silicio, donde la información se transmite mediante electrones, sino los sistemas ópticos. El portador de información serán los fotones, ya que son más ligeros y más rápidos que los electrones. Como resultado, la computadora será más barata y compacta. Pero lo más importante es que la computación optoelectrónica es mucho más rápida que la que se utiliza hoy en día, por lo que la computadora será mucho más potente.

La PC será de tamaño pequeño y tendrá la potencia de las supercomputadoras modernas. La PC se convertirá en un depósito de información que cubrirá todos los aspectos de nuestra vida diaria, no estará atada a redes eléctricas. Este PC estará protegido de los ladrones gracias a un escáner biométrico que reconocerá a su propietario mediante la huella dactilar.

La principal forma de comunicarse con la computadora será la voz. La computadora de escritorio se convertirá en una "barra de chocolate", o mejor dicho, en una pantalla de computadora gigante, una pantalla fotónica interactiva. No es necesario un teclado, ya que todas las acciones se pueden realizar con solo tocar un dedo. Pero para aquellos que prefieren un teclado, se puede crear un teclado virtual en la pantalla en cualquier momento y eliminarlo cuando ya no sea necesario.

El ordenador se convertirá en el sistema operativo de la casa, y la casa empezará a responder a las necesidades del dueño, conocerá sus preferencias (preparar café a las 7, poner su música favorita, grabar el programa de televisión deseado, ajustar la temperatura y humedad, etc).

El tamaño de la pantalla no jugará ningún papel en los ordenadores del futuro. Puede ser tan grande como tu escritorio o pequeño. Las versiones más grandes de pantallas de computadora se basarán en cristales líquidos excitados fotónicamente, que tendrán un consumo de energía mucho menor que los monitores LCD actuales. Los colores serán vibrantes y las imágenes precisas (posibles pantallas de plasma). De hecho, el concepto actual de "resolución" quedará enormemente atrofiado.

Historia del desarrollo de la tecnología informática.

El desarrollo de la tecnología informática se puede dividir en los siguientes períodos:

Ø Manual(Siglo VI a.C. - Siglo XVII d.C.)

Ø Mecánico(Siglo XVII - mediados del siglo XX)

Ø Electrónico(mediados del XX siglo - actualidad)

Aunque Prometeo en la tragedia de Esquilo afirma: “Piensa en lo que les hice a los mortales: les inventé el número y les enseñé a unir letras”, el concepto de número surgió mucho antes de la aparición de la escritura. La gente lleva muchos siglos aprendiendo a contar, transmitiendo y enriqueciendo su experiencia de generación en generación.

El conteo, o más ampliamente, los cálculos, se pueden realizar de varias formas: hay conteo oral, escrito e instrumental . Las herramientas de contabilidad instrumental en diferentes momentos tenían diferentes capacidades y se llamaban de manera diferente.

Etapa manual (Siglo VI a.C. - Siglo XVII d.C.)

El surgimiento del conteo en la antigüedad: "Este fue el comienzo de los comienzos..."

La edad estimada de la última generación de la humanidad es de 3 a 4 millones de años. Fue hace muchos años que un hombre se levantó y tomó un instrumento que él mismo había hecho. Sin embargo, la capacidad de contar (es decir, la capacidad de dividir los conceptos de "más" y "menos" en un número específico de unidades) se desarrolló en los humanos mucho más tarde, concretamente hace 40-50 mil años (Paleolítico tardío). Esta etapa corresponde al surgimiento del hombre moderno (Cro-Magnon). Así, una de las características principales (si no la principal) que distingue al hombre de Cromagnon de la etapa más antigua del hombre es la presencia de habilidades para contar.

No es difícil adivinar que la primera El dispositivo de conteo del hombre eran sus dedos.

Los dedos quedaron geniales.computadora. Con su ayuda fue posible contar hasta 5, y si tomas dos manos, hasta 10. Y en países donde la gente caminaba descalza, con los dedos. era fácil contar hasta 20. Entonces esto fue prácticamente suficiente para la mayoría las necesidades de las personas.

Los dedos resultaron estar tan estrechamente conectados con contar, que en el griego antiguo el concepto de “contar” se expresaba con la palabra"cinco veces" Y en ruso la palabra "cinco" se parece a "pastcarpus" - parte manos (la palabra "metacarpo" rara vez se menciona ahora, pero su derivado es "muñeca" - se usa a menudo incluso ahora). La mano, metacarpo, es sinónimo y de hecho la base del numeral “CINCO” entre muchos pueblos. Por ejemplo, el malayo "LIMA" significa "mano" y "cinco".

Sin embargo, hay pueblos conocidos cuyas unidades de conteo son No fueron los dedos, sino sus articulaciones.

Aprender a contar con los dedos paradiez, la gente dio el siguiente paso adelante y comenzó a contar de decenas. Y si algunas tribus papúes sólo podían contar hasta seis, otras podían contar hasta varias decenas. Solo para esto era necesario invita a muchos contadores a la vez.

En muchos idiomas, las palabras "dos" y "diez" son consonantes. Quizás esto se explique por el hecho de que una vez la palabra "diez" significaba "dos manos". Y ahora hay tribus que dicen"dos manos" en lugar de "diez" y "brazos y piernas" en lugar de "veinte". y en inglaterra Los primeros diez números reciben el nombre común: "dedos". Esto significa que los británicos alguna vez contaron con los dedos.

El conteo con los dedos se ha conservado en algunos lugares hasta el día de hoy, por ejemplo, el historiador de las matemáticas L. Karpinsky en su libro "La historia de la aritmética" informa que en la bolsa de granos más grande del mundo en Chicago, las ofertas y solicitudes, así como los precios. , los anuncian los corredores con los dedos sin una sola palabra.

Luego apareció contar con piedras en movimiento, contar con la ayuda de rosarios... Este fue un avance significativo en la capacidad de contar de una persona: el comienzo de la abstracción de los números.