La historia y el futuro de las computadoras
Antes del 1200 a. C., algunos residentes educados de Sumeria registraban sus asuntos comerciales en tablillas de arcilla.
En el año 3000 a.C., Babilonia inventó el ábaco.
Desde el 250 a.C. hasta el 230 a.C., el tamiz de Eratosthesia se utilizó para determinar los números primos.
Hacia el año 79 d.C., cuando el mecanismo de Antikythera se ajustó correctamente en cuanto a latitud y día de la semana, se pudo obtener un mes lunar con días 29 y 30 alternos.
Hacia el año 1300, los ábacos hechos de alambre y cuentas sustituyeron a la varilla de contar china. El ábaco era utilizado por los comerciantes de aquella época para calcular las transacciones comerciales.
De 1612 a 1614, John Knepper inventó los logaritmos con punto decimal y el conteo en una recta numérica.
En 1622, William Outred inventó la regla de cálculo circular basada en la tabla de logaritmos de Napier. La precisión es de sólo 3 dígitos, pero es suficiente para muchos trabajos.
De 1642 a 1643, Blaise Pascalene inventó la máquina sumadora de engranajes, la primera máquina sumadora mecánica. Esta "Pascaline" tiene ocho diales móviles que pueden sumar hasta ocho dígitos.
Máquina sumadora mecánica
En 1666, el británico Samuel Moran inventó una máquina contadora mecánica que podía calcular sumas y restas.
En 1673, Gottfried Leibniz construyó un contador con una rueda cilíndrica escalonada, llamado "calculadora de pasos". Esta computadora puede multiplicar números repetidos y sumarlos automáticamente al sumador.
En 1694, el matemático alemán Gottfried Leibniz mejoró el de Pascal y fabricó una máquina que podía calcular multiplicadores. Todavía funciona mediante engranajes y diales.
En 1773, Philippe Matthäus fabricó y vendió un pequeño número de ordenadores con una precisión de 12 dígitos.
Historia de la informática 1773
En 1775, el tercer conde Stanhope inventó una computadora de multiplicación similar a la de Leibniz.
En 1786, J.H. Mueller diseñó una ampliación diferencial, pero lamentablemente no disponía de fondos para fabricarla.
El telar de Joseph-Marie Jacquard de 1801 era un patrón controlado conectando tarjetas perforadas secuencialmente.
Telares de tarjetas perforadas
En 1811, los luditas destruyeron estas máquinas que dejaban a la gente sin trabajo.
1820 Metro aritmético de Thomas, publicado por la Sociedad Científica Francesa. Se basa en el principio del tambor en escalera de Leibniz. Fue la primera computadora producida en masa que podía calcular multiplicadores y, con la cooperación del usuario, incluso divisores. Esta máquina se vende desde hace unos 90 años.
En 1822, Charles Babbage comenzó a diseñar y construir motores diferenciales. Este motor diferencial funcionaba con vapor y era enorme. Tiene un procedimiento almacenado que calcula e imprime automáticamente los resultados.
Berger y su máquina diferencial
1829 Willian Austin Burt patenta una práctica pero torpe máquina de escribir, la primera máquina de escribir en Estados Unidos.
En 1832, Berg y Joseph Clement realizaron un prototipo del diferencial.
De 1833 a 1835, Babbage se dedicó al diseño de máquinas analíticas. Debido a que la Máquina Analítica tenía los componentes básicos de una computadora moderna, a Babbage se le conoce como el "Padre de la Computadora".
En octubre Samuel Morse y Alfred Weir publicaron los componentes del sistema telegráfico.
1842 Augusta Ada Byron, condesa de Lovelace, tradujo el folleto de Luigi Menabrea sobre la máquina analítica y añadió sus propias notas, convirtiéndose en la primera programadora A.
Introducción de Ada y fotografías
En 1843, Scheutz y su hijo Edvard Scheutz realizaron una extensión diferencial de tercer orden.
En 1844, Samuel Morse envió un equipo eléctrico desde Washington a Baltimore, Maryland, Estados Unidos.
De 1847 a 1849, Berg completó la composición de una versión mejorada del motor de veintiún diferencias, que puede operar diferencias de séptimo orden y 31 dígitos. Pero sin un patrocinador, la máquina no estaba completa.
En 1854, George Boole publicó "Un examen de las leyes del pensamiento", que hablaba de símbolos y razonamiento lógico, que más tarde se convirtió en el concepto básico del diseño informático.
1858 ¿Un telegrama? Primera travesía del Océano Atlántico, el servicio se prestó durante varios días.
Una línea telegráfica transcontinental conectaba las costas del Atlántico y el Pacífico.
Alexander Graham Bell inventó el teléfono y recibió una patente en 1876.
De 1876 a 1878, el barón Kelvin construyó el analizador de armónicos y la máquina de predicción de mareas.
En 1882, William S. Burroughs dejó su trabajo como empleado de banco y se dedicó a inventar la máquina sumadora.
La máquina tabuladora eléctrica de Herman Hollery tuvo buenos resultados en las competiciones de 1889 y se utilizó en el censo de 1890. Herman Hollery utilizó el concepto del telar jacquard para calcular. Usó una tarjeta para almacenar los datos y luego la introdujo en una máquina para compilar los resultados. La máquina permite que los resultados de un censo que habría tardado una década en estar disponibles en sólo seis semanas.
Historia de la Computación 1890
Se inventa la primera computadora de cuatro funciones.
1895 Guglielmo Marconi transmite señales de radiodifusión.
1896 Hollerith funda la empresa de máquinas tabuladoras.
Las teclas perforadas aparecieron en 1901 y cambiaron poco durante el siguiente medio siglo.
En 1904, John A. Fleming obtuvo una patente para el diodo de vacío, sentando las bases de las comunicaciones por radio.
1906 Lee de Foredt añadió un diodo con una tercera válvula a Fermín para crear un tubo de vacío de tres electrodos.
La música grabada en 1907 formó la primera estación de radio oficial de Nueva York.
1908 ¿El científico británico Campbell Swinton? Se describen métodos de escaneo electrónico y predicciones para fabricar televisores a partir de tubos de rayos catódicos.
En 1911, Watch Machine Company de Hollerith se fusionó con otras dos empresas para formar Computerized Tabulated and Recording Company (C-T-R), una empresa de relojería y grabación. Pero en 1924 pasó a llamarse International Business Machines Corporation (IBM).
En 1911, el físico holandés Kamerlingh Onnes descubrió la superconductividad en la Universidad de Leiden.
En 1931, Vannifer Bush inventó una máquina de contar que podía resolver programas diferenciales. La máquina podría resolver complejos programas de diferencias que molestan a matemáticos y científicos.
En 1935, IBM (International Business Machines Corporation) lanzó el "IBM 601", una máquina de tarjetas perforadas con un componente aritmético que podía calcular multiplicadores en 1 segundo.
Desempeña un papel muy importante en la informática científica y en la informática empresarial. Se fabricaron un total de 1.500 unidades.
En 1937, Alan Turing propuso el concepto de una "máquina universal" que puede ejecutar cualquier algoritmo, formando el concepto básico de "computabilidad". El concepto de Turing fue superior a otros inventos similares porque utilizó el concepto de procesamiento de símbolos.
En 1938, Konrad Zuse completó una máquina binaria programable. Originalmente llamado "V1", luego pasó a llamarse "Z1". Este contador utiliza aritmética de coma flotante con un exponente de 7 bits, una mantisa de 16 bits y un bit positivo y negativo. La memoria utilizaba una parte metálica deslizante para almacenar los dígitos 16, lo que funcionaba muy bien, pero la parte aritmética no tenía mucho éxito. El programa se leía en una cinta perforada (no en cinta de papel, sino en una película de 35 mm), los datos se podían ingresar mediante un teclado numérico y el resultado se mostraba en una luz.
Historia de la informática 1935-38 y fotografías de Konrad Zuse
John Vincent Atansov y John Bury construyeron un sumador de 16 bits.
Fue la primera máquina en calcular mediante tubos de vacío.
En 1939, Zuzer y Schreer produjeron el "V2" [más tarde llamado Z2]. Esta máquina tomó la memoria mecánica del Z1 y agregó un nuevo componente aritmético usando lógica de relé. Pero cuando Zuzer completó el borrador, el plan quedó en pausa durante un año.
En 1939-40, Schreyer completó un sumador de 10 bits usando tubos de vacío y una memoria usando lámparas de neón.
1940 1 En Bell Labs, Samuel Williams y Stibitz completaron una máquina que podía calcular números complejos, que se llamó "Calculadora de números complejos" y más tarde pasó a llamarse I (Calculadora de retransmisión Modelo I). Utiliza como elementos lógicos interruptores telefónicos: 145 disyuntores e interruptores de 10 barras. El número está representado por "más 3BCD". En septiembre de ese año, se instaló un teletipo en una conferencia matemática y se conectó desde New Hampshire a Nueva York.
En 1940, Zuse finalmente completó el Z2, que era más fácil de usar que el Z2, pero menos confiable.
En el verano de 1941, Atanasov y Berry completaron una computadora diseñada específicamente para resolver ecuaciones lineales, más tarde conocida como "ABC (Atanasov-Berry Computer)"). Tiene memoria de 50 bits a 60 Hz en forma de condensadores montados en dos tambores giratorios. Reloj
En febrero de 1941, Zuse completó la "V3" (más tarde llamada Z3), que fue la primera computadora que pudo programarse para funcionar. También utiliza aritmética de punto flotante, un exponente de 7 bits, una mantisa de 14 bits y un signo. La memoria puede almacenar 64 palabras, por lo que se requieren 1400 disyuntores. Tiene más de 1200 componentes informáticos y de control, y la programación, entrada y salida son las mismas que las del Z1.
1943 65438 Octubre Howard H. Aiken completa la "ASCC Mark I" (Calculadora automática de control secuencial Mark I), también conocida como "Harward Mark I". La máquina mide 51 pies de largo y pesa 5 toneladas. Consta de 750.000 piezas. Dispone de 72 acumuladores, cada uno con su propia unidad aritmética y un registro de 23 bits.
1943 65438 febrero Tommy Flowers y su equipo completaron el primer "Colossus", que tenía 2400 tubos de vacío como componentes lógicos, 5 lectores de cintas de papel, cada lector podía escribir 5000 caracteres por segundo.
En 1947, William Shockley, John Bardeen y Walter Brattain inventaron una resistencia de transferencia, más tarde conocida como transistor, que mejoró enormemente las computadoras y era más confiable que las válvulas de vacío.
La historia de los ordenadores
Los ordenadores son el principal motor de la nueva revolución tecnológica y un factor positivo para impulsar la modernización de la sociedad. La informática y la tecnología son una de las disciplinas emergentes de más rápido crecimiento y mayor alcance desde la Segunda Guerra Mundial. A nivel mundial, la industria informática se ha convertido en una industria estratégica con gran vitalidad.
Las computadoras modernas son herramientas universales para procesar información automáticamente según programas. Su objeto de procesamiento es información y el resultado del procesamiento también es información. El uso de ordenadores para resolver diversos problemas como la informática científica, el diseño de ingeniería, la gestión, el control de procesos o la inteligencia artificial se realiza según determinados algoritmos. Este algoritmo es una serie de reglas definidas con precisión que indican cómo generar la información de salida requerida a partir de información de entrada dada en un número limitado de pasos.
El proceso general de procesamiento de información es que el usuario de la computadora preprograma el problema a resolver y lo almacena en la computadora, y luego usa el programa almacenado para dirigir y controlar la computadora para realizar automáticamente varias tareas básicas. operaciones hasta obtener los resultados esperados. La base del trabajo automático de la computadora radica en esta forma de almacenar programas, y la base de su universalidad radica en el método * * * de utilizar las computadoras para procesar información.
La historia de las computadoras
El nacimiento y desarrollo de las computadoras modernas Antes de la aparición de las computadoras modernas, el desarrollo de las computadoras pasó por tres etapas: computadoras mecánicas, computadoras electromecánicas y electrónicas en ciernes. computadoras.
Ya en el siglo XVII, un grupo de matemáticos europeos comenzó a diseñar y construir computadoras digitales que realizaban operaciones básicas en forma digital. En 1642, el matemático francés Pascal utilizó una transmisión de engranajes similar a un reloj para crear el primer sumador decimal. En 1678, la computadora construida por el matemático alemán Leibniz resolvió las operaciones de multiplicación y división de números decimales.
Al matemático británico Babbage se le ocurrió una idea mientras fabricaba un modelo del motor diferencial en 1822. Cada vez que se completa una operación aritmética, se convertirá en la finalización automática de un proceso de operación completo específico. En 1884, Babbage diseñó un analizador universal programable. Aunque este analizador había descrito el prototipo de un ordenador relacionado con el control de programas, aún no se había realizado debido a las condiciones técnicas del momento.
En los más de 100 años transcurridos desde que se propuso la idea de Babbage, se han logrado grandes avances en el electromagnetismo, la ingeniería eléctrica y la electrónica, y se han inventado sucesivamente diodos y triodos de vacío en términos de componentes. En términos de tecnología de sistemas, se inventaron uno tras otro la telegrafía inalámbrica, la televisión y el radar. Todos estos logros han preparado las condiciones técnicas y materiales para el desarrollo de las computadoras modernas.
Al mismo tiempo, las matemáticas y la física también florecieron. En la década de 1930, todas las áreas de la física atravesaban una fase de cuantificación, con ecuaciones matemáticas que describían una variedad de procesos físicos, algunos de los cuales eran difíciles de resolver utilizando métodos analíticos clásicos. Por lo tanto, se ha prestado atención al análisis numérico y se han desarrollado varias integrales numéricas, diferenciales numéricas y soluciones numéricas a ecuaciones diferenciales, simplificando el proceso de cálculo en una gran cantidad de operaciones básicas, sentando así las bases para los algoritmos numéricos informáticos modernos.
La urgente necesidad de la sociedad de herramientas informáticas avanzadas es la fuerza impulsora fundamental para el nacimiento de las computadoras modernas. Desde el siglo XX, han surgido numerosas dificultades computacionales en diversos campos científicos y departamentos técnicos, obstaculizando el desarrollo continuo de la disciplina. Especialmente antes y después del estallido de la Segunda Guerra Mundial, la tecnología militar tenía una necesidad particularmente urgente de herramientas informáticas de alta velocidad. Durante este período, Alemania, Estados Unidos y el Reino Unido estaban desarrollando computadoras y comenzaron a estudiar computadoras electromecánicas y electrónicas casi al mismo tiempo.
El alemán Giuseppe fue la primera persona en utilizar componentes electrónicos para construir un ordenador. La computadora de relé totalmente automática Z-3 que fabricó en 1941 tenía las características de las computadoras modernas, como conteo de punto flotante, operaciones binarias y formularios de instrucciones de direcciones de almacenamiento digital. En los Estados Unidos, las computadoras de retransmisión incluyen MARK-1, MARK-2, Model-1, Model-5, etc. También se realizó entre 1940 y 1947. Sin embargo, la velocidad de conmutación del relé es de aproximadamente una centésima de segundo, lo que limita en gran medida la velocidad de cálculo de la computadora.
El proceso de desarrollo de las computadoras electrónicas ha pasado por la evolución desde la fabricación de piezas hasta máquinas completas, desde máquinas de propósito especial a máquinas de propósito general, y de "programas externos" a "programas almacenados" en 1938. , el científico búlgaro-estadounidense Atana Atanasoff fue el primero en fabricar los componentes informáticos de los ordenadores electrónicos. En 1943, la Oficina de Comunicaciones del Ministerio de Asuntos Exteriores británico construyó una computadora electrónica "gigante". Se trata de una máquina de criptoanálisis especial que se utilizó durante la Segunda Guerra Mundial.
En febrero de 1946, el Ordenador Integrador Numérico Electrónico (ENIAC) a gran escala fabricado por el Moore College de la Universidad de Pensilvania se utilizó inicialmente para cálculos balísticos de artillería. Después de muchas mejoras, se convirtió en un ordenador de uso general. que puede realizar diversas tareas científicas. Esta computadora, que utiliza completamente circuitos electrónicos para operaciones aritméticas, operaciones lógicas y almacenamiento de información, es 1.000 veces más rápida que una computadora de retransmisión. A menudo se la conoce como la primera computadora electrónica del mundo. Sin embargo, el programa de esta computadora aún es externo, la capacidad de almacenamiento es demasiado pequeña y aún no posee completamente las características principales de las computadoras modernas.
Este nuevo avance fue logrado por un equipo de diseño dirigido por el matemático von Neumann. En marzo de 1945, publicaron un nuevo programa informático electrónico de uso general: los autómatas electrónicos variables discretos (EDVAC). Posteriormente, en junio de 1946, von Neumann y otros propusieron un informe de diseño más completo y realizaron un estudio preliminar sobre la estructura lógica de los equipos informáticos electrónicos.
De julio a agosto del mismo año impartieron un curso especializado "Teoría y Tecnología del Diseño de Computadores" en Moore College a expertos de más de 20 instituciones de Estados Unidos y Reino Unido, impulsando el diseño y fabricación de computadoras con programas almacenados. .
En 1949, el Laboratorio de Matemáticas de la Universidad de Cambridge en el Reino Unido tomó la iniciativa en el desarrollo de la Computadora Automática Electrónica de Tiempo Discreto (EDSAC). Estados Unidos construyó la Computadora Automática Estándar Oriental (SFAC) en 1950. En este punto finalizó el período embrionario del desarrollo de las computadoras electrónicas y comenzó el período de desarrollo de las computadoras modernas.
Al mismo tiempo que se creaba el ordenador digital, también se desarrollaba otra importante herramienta informática, el ordenador analógico. Cuando los físicos resumen las leyes de la naturaleza, suelen utilizar ecuaciones matemáticas para describir un determinado proceso. Por el contrario, las ecuaciones matemáticas también se pueden resolver mediante simulaciones de procesos físicos. Después de la invención de los logaritmos, la regla de cálculo creada en 1620 había cambiado la multiplicación y la división por la suma y la resta para los cálculos. Maxwell transformó hábilmente el cálculo de la integral (área) en una medida de longitud, creando un integrador en 1855.
El análisis de Fourier fue otro gran logro de la física matemática del siglo XIX y jugó un papel directo en la promoción del desarrollo de los simuladores. A finales del siglo XIX y principios del XX, 65438 fabricó diversas máquinas analíticas para calcular los coeficientes de Fourier y máquinas analíticas diferenciales para resolver ecuaciones diferenciales. Sin embargo, al intentar promover analizadores diferenciales para resolver ecuaciones diferenciales parciales y simuladores para resolver problemas informáticos científicos generales, la gente se dio cuenta gradualmente de las limitaciones de los simuladores en términos de versatilidad y precisión, y centró sus principales esfuerzos en las computadoras digitales.
Después de la aparición de las computadoras digitales electrónicas, las computadoras analógicas continuaron desarrollándose y se combinaron con las computadoras digitales para producir computadoras híbridas. Los simuladores y mezcladores se han convertido en variedades especiales de ordenadores modernos, es decir, herramientas de procesamiento de información eficientes o herramientas de simulación de dominios específicos.
Desde mediados del siglo XX, las computadoras han atravesado un período de rápido desarrollo. Las computadoras han evolucionado desde solo hardware hasta sistemas informáticos que incluyen hardware, software y firmware. La relación rendimiento-precio de los sistemas informáticos mejora en un promedio de dos órdenes de magnitud cada 10 años. Los tipos de computadoras se han dividido una y otra vez, desarrollándose en microcomputadoras, computadoras pequeñas, computadoras de propósito general (incluidas computadoras gigantes, de gran escala y de tamaño mediano) y varias computadoras de propósito especial (como varias computadoras de control y analógicas). -ordenadores híbridos digitales).
Los equipos informáticos, desde los tubos de electrones hasta los transistores, desde los componentes discretos hasta los circuitos integrados y los microprocesadores, han logrado tres avances en el desarrollo de las computadoras.
En la era de las computadoras de tubo (1946 ~ 1959), las computadoras se usaban principalmente para cálculos científicos. La memoria principal es el factor principal que determina la apariencia técnica de las computadoras. Las principales memorias en ese momento eran la memoria de línea de retardo de mercurio, la memoria electrostática de osciloscopio de rayos catódicos, la memoria de tambor magnético y de núcleo magnético, y las computadoras generalmente se clasifican de acuerdo con esto.
En la era de las computadoras de transistores (1959 ~ 1964), la memoria de núcleo magnético se usaba como memoria principal y los tambores y discos magnéticos comenzaron a usarse como memorias primarias y auxiliares. No sólo se siguen desarrollando las computadoras científicas, sino que también se han comenzado a producir en masa computadoras pequeñas y medianas, especialmente computadoras pequeñas y baratas de procesamiento de datos.
En 1964, con el desarrollo de las computadoras con circuitos integrados, las computadoras también entraron en un período de serialización de productos. La memoria semiconductora ha reemplazado gradualmente a la memoria central como memoria principal, los discos se han convertido en memoria auxiliar indispensable y la tecnología de almacenamiento virtual se ha utilizado ampliamente. Con el rápido desarrollo de varias memorias semiconductoras de solo lectura y memorias regrabables de solo lectura, así como el desarrollo y aplicación de la tecnología de microprogramación, los subsistemas de firmware comenzaron a aparecer en los sistemas informáticos.
Después de la década de 1970, la integración de los circuitos integrados de computadoras se desarrolló rápidamente desde niveles de pequeña escala a gran escala y ultra gran escala. Los microprocesadores y las microcomputadoras surgieron a medida que los tiempos lo exigían, y el rendimiento de varias computadoras. aumentó rápidamente. Con la aparición y el uso generalizado de microcomputadoras con longitudes de palabra de 4, 8, 16, 32 y 64 bits, la demanda de computadoras pequeñas, de uso general y de propósito especial también ha aumentado en consecuencia.
Después de que las microcomputadoras se utilizan ampliamente en la sociedad, a menudo hay docenas o incluso cientos de computadoras en un edificio de oficinas, una escuela y un almacén.
La red de área local que realiza su interconexión surgió repentinamente, promoviendo aún más el desarrollo de sistemas de aplicaciones informáticas desde sistemas centralizados hasta sistemas distribuidos.
En la era de las computadoras de tubo, algunas computadoras estaban equipadas con lenguaje ensamblador y bibliotecas de subrutinas, y apareció FORTRAN, un lenguaje de alto nivel para la informática científica. En la etapa de las computadoras con transistores, los lenguajes de alto nivel como COBOL para el procesamiento de transacciones, ALGOL para las computadoras científicas y LISP para el procesamiento simbólico comenzaron a entrar en la etapa práctica. La formación inicial del sistema operativo transformó el uso de las computadoras de operación manual a gestión automática de trabajos.
Después de entrar en el período de desarrollo de las computadoras con circuitos integrados, se ha formado una escala considerable de subsistemas de software en las computadoras, los tipos de lenguajes de alto nivel han aumentado aún más y los sistemas operativos se han vuelto cada vez más perfectos. con procesamiento por lotes, procesamiento de tiempo compartido, procesamiento en tiempo real, etc. Múltiples funciones. El subsistema de software también agrega sistemas de gestión de bases de datos, controladores de comunicación y software de red. Las funciones de los subsistemas de software se mejoran continuamente, lo que cambia significativamente los atributos de uso de las computadoras y mejora significativamente la eficiencia de uso.
En las computadoras modernas, el valor de los dispositivos periféricos generalmente ha superado la mitad del subsistema de hardware de la computadora, y su nivel técnico determina en gran medida la apariencia técnica de la computadora. La tecnología de los equipos periféricos es muy completa y depende no sólo de la integración de la electrónica, la mecánica, la óptica, el magnetismo y otras disciplinas, sino también de la tecnología de maquinaria de precisión, la tecnología de procesamiento eléctrico y electrónico, y la tecnología de medición y el nivel de proceso.
Los dispositivos periféricos incluyen almacenamiento auxiliar y dispositivos de entrada y salida. El almacenamiento auxiliar incluye discos, tambores, cintas magnéticas, memorias láser, memorias de gran capacidad, micromemorias, etc. Los dispositivos de entrada y salida se dividen en equipos de entrada, salida, conversión, modo de procesamiento de información y equipos terminales. Entre estos diversos dispositivos, los discos, los dispositivos terminales, los dispositivos de procesamiento de información de patrones y los dispositivos de conversión tienen el mayor impacto en las perspectivas técnicas de las computadoras.
La nueva generación de ordenadores es un sistema informático inteligente que integra la recopilación, el almacenamiento y el procesamiento de información, la comunicación y la inteligencia artificial. Puede procesar tanto información general como conocimiento, y tiene la capacidad de razonamiento formal, asociación, aprendizaje y explicación, lo que ayudará a los humanos a explorar áreas desconocidas y adquirir nuevos conocimientos.
El desarrollo de la tecnología informática de China En la historia del desarrollo de la civilización humana, China ha escrito una página gloriosa en la invención y creación de las primeras herramientas informáticas. Ya en la dinastía Shang, China creó el sistema de notación decimal, más de mil años antes que el mundo. Durante la dinastía Zhou, se inventaron las herramientas informáticas más avanzadas de la época: cálculo y compilación. Se trata de un pequeño palo hecho de bambú, madera o hueso de diferentes colores. Al calcular cada problema matemático, normalmente inventamos un algoritmo en forma de canción, reorganizando constantemente las baquetas a medida que avanzamos. Zu Chongzhi, un antiguo matemático chino, calculó que pi está entre 3,1415926 y 3,1415927. Este resultado es 1.000 años antes que en Occidente.
El ábaco es otra creación original de China y el primer gran invento en la historia del desarrollo de herramientas informáticas. Este tipo de cosas que son livianas, flexibles, fáciles de transportar y estrechamente relacionadas con la vida de las personas aparecieron por primera vez en la dinastía Han y maduraron gradualmente en la dinastía Yuan. El ábaco no sólo jugó un papel beneficioso en el desarrollo económico de China, sino que también se extendió a Japón, Corea del Norte, el Sudeste Asiático y otras regiones. Ha resistido la prueba de la historia y todavía se utiliza en la actualidad.
El carro guía del sur, el elefante de transporte acuático, el carro tambor y la máquina jacquard inventados y creados por China no sólo hicieron contribuciones destacadas al desarrollo de la maquinaria de control automático, sino que también tuvieron un impacto directo o indirecto en la evolución de las herramientas informáticas. Por ejemplo, el mapa de constelaciones del movimiento del agua elaborado por Zhang Heng puede sincronizarse automáticamente con el movimiento de la tierra. Fue mejorado durante las dinastías Tang y Song y se convirtió en el reloj astronómico más antiguo del mundo.
El tambor que tengo en la memoria es el dispositivo de conteo automático más antiguo del mundo. El principio de funcionamiento de la máquina jacquard tuvo una influencia indirecta en el desarrollo del control por programas informáticos. En la antigua China, Bagua estaba compuesto de Yang y Yin, lo que también tuvo un impacto directo en el desarrollo de la tecnología informática. Leibniz escribió un artículo sobre chismes y propuso sistemáticamente el algoritmo aritmético binario. Él cree que la representación binaria más antigua del mundo es el Bagua chino.
Después de un largo período de silencio, después de la fundación de la República Popular China, la tecnología informática de China entró en un nuevo período de desarrollo, se establecieron una tras otra instituciones de investigación y se especializaron en tecnología y dispositivos informáticos. Las matemáticas computacionales se establecieron en colegios y universidades, y se propusieron construir la industria de fabricación de computadoras en China.
En 1958 y 1959, nuestro país fabricó los primeros ordenadores de tubos de pequeño y gran tamaño. A mediados de la década de 1960, mi país desarrolló con éxito un lote de computadoras con transistores y compiladores compiladores y otro software de sistema en lenguajes como ALGOL. A finales de la década de 1960, China comenzó a investigar las computadoras con circuitos integrados. En la década de 1970, China producía en masa pequeñas computadoras con circuitos integrados. Después de la década de 1980, China comenzó a centrarse en el desarrollo y aplicación de sistemas de microcomputadoras. Las grandes computadoras, especialmente la tecnología de supercomputadoras, también han logrado avances importantes; se ha establecido la industria de servicios informáticos y la estructura de la industria informática se ha mejorado gradualmente.
En términos de investigación en informática y tecnología, nuestro país ha logrado grandes logros en métodos de cálculo de elementos finitos, pruebas mecánicas de teoremas matemáticos, procesamiento de información de caracteres chinos, estructuras y software de sistemas informáticos, etc. En términos de aplicaciones informáticas, China ha logrado logros notables en los campos de la informática científica y el diseño de ingeniería. La investigación y la práctica de aplicaciones informáticas son cada vez más activas en la gestión empresarial y el control de procesos.
Ciencia y Tecnología de la Computación
La ciencia y la tecnología de la computación es una disciplina basada en las matemáticas, la electrónica (especialmente la microelectrónica), el magnetismo, la óptica, la maquinaria de precisión y otras disciplinas. practicidad y rápido desarrollo. Pero no se trata simplemente de la aplicación de conocimientos de determinadas disciplinas, sino de un alto grado de integración para formar un conjunto de teorías, métodos y tecnologías relacionadas con la representación, conversión, almacenamiento, procesamiento, control y utilización de la información.
La informática es la ciencia que estudia diversos fenómenos y escalas de las computadoras y su entorno, incluyendo principalmente la informática teórica, la estructura de los sistemas informáticos, el software y la inteligencia artificial. La tecnología informática generalmente se refiere a métodos y medios técnicos aplicados en el campo informático, incluida la tecnología de sistemas informáticos, tecnología de software, tecnología de componentes, tecnología de dispositivos y tecnología de ensamblaje. La informática y la tecnología incluyen cinco ramas, a saber, informática teórica, estructura de sistemas informáticos, organización e implementación de computadoras, software y aplicaciones informáticas.
La informática teórica es el estudio de la teoría informática básica. En el desarrollo de las matemáticas durante miles de años, la gente ha estudiado diversos cálculos y ha creado muchos algoritmos. La teoría matemática que toma como objeto de investigación la naturaleza de la computación o el propio algoritmo no se desarrolló hasta la década de 1930.
La teoría de los algoritmos establecida por varios estudiosos de la lógica matemática en ese momento, es decir, la teoría de la computabilidad o la teoría de la función recursiva, tuvo un impacto en la formación de las ideas modernas de diseño de computadoras en la década de 1940. Desde entonces, ha seguido desarrollándose el estudio de las propiedades de los modelos matemáticos de ordenadores reales y sus programas, así como el estudio de la complejidad computacional.
La informática teórica incluye la teoría de los autómatas, la teoría del lenguaje formal, la teoría de programas, el análisis de algoritmos y la teoría de la complejidad computacional. Un autómata es un modelo matemático de una verdadera computadora automática, o un modelo de un verdadero programa de computadora. La tarea de la teoría de los autómatas es estudiar modelos de esta máquina abstracta. El lenguaje de programación es un lenguaje formal. La teoría del lenguaje formal se divide en O ~ 3 lenguajes según la fuerza de la capacidad de expresión del lenguaje, que corresponden a cuatro tipos de autómatas, como las máquinas de Turing. La teoría de programas es la base teórica para estudiar la lógica del programa, la complejidad del programa, la prueba de corrección del programa, la verificación del programa, la síntesis del programa, la lingüística formal y los métodos de diseño del programa. El análisis algorítmico estudia las propiedades de algoritmos específicos. La teoría de la complejidad computacional estudia las propiedades generales de la complejidad algorítmica.
Estructura del sistema informático Los atributos de la computadora vistos por los programadores se centran en la estructura conceptual y las características funcionales de la computadora, la asignación de funciones de los subsistemas de hardware, software y firmware y la determinación de sus interfaces. Las propiedades de la computadora que ven los programadores que utilizan lenguajes de alto nivel son principalmente las propiedades de los subsistemas de software y los subsistemas de firmware, incluidos los lenguajes de programación y las interfaces de usuario para sistemas operativos, sistemas de administración de bases de datos y software de red.
Los atributos de la computadora que ven los programadores que usan lenguaje de máquina son la estructura conceptual del subsistema de hardware (estructura del subsistema de hardware) y sus características funcionales, incluido el sistema de instrucciones (lenguaje de máquina), la definición de registro, el mecanismo de interrupción, el modo de entrada y salida y el funcionamiento de la máquina. estado espera.
La estructura típica del subsistema de hardware es la estructura de von Neumann, que consta de un controlador aritmético, memoria y dispositivos de entrada y salida, y adopta un enfoque "basado en instrucciones". Inicialmente, fue diseñado para resolver ecuaciones diferenciales y no lineales y no preveía la aparición de lenguajes de alto nivel, sistemas operativos y otros requisitos especiales para adaptarse a otros entornos de aplicaciones. Durante mucho tiempo se han desarrollado subsistemas de software basados en esta estructura de von Neumann. Sin embargo, poco a poco se fueron exponiendo situaciones inadecuadas, lo que impulsó la reforma de la arquitectura informática.
La organización e implementación de computadoras es el estudio de las funciones de la computadora, las interconexiones e interacciones entre componentes y las tecnologías relacionadas con la implementación de la computadora, todas las cuales son tareas de organización e implementación de la computadora.
Después de que la estructura del sistema informático determina las funciones asignadas a los subsistemas físicos y su estructura conceptual, la tarea de la organización informática es estudiar la estructura interna y la interconexión de cada componente para realizar diversas funciones en las instrucciones de la máquina. nivel y características. Esta interconexión incluye la disposición, interconexión e interacción de varios componentes funcionales.
Con la expansión de las funciones informáticas y la mejora del rendimiento, cada vez hay más componentes funcionales en las computadoras y las estructuras de interconexión entre ellos se vuelven cada vez más complejas. Existen tres métodos modernos de interconexión, centrados en el procesador central, la memoria o el subsistema de comunicación, interconectándose con otros componentes. El modelo organizacional centrado en el subsistema de comunicación combina estrechamente la tecnología informática y la tecnología de la comunicación, formando importantes campos de investigación y aplicación informática, como las redes informáticas y los sistemas informáticos distribuidos.
La gama de tecnologías relacionadas con la implementación informática es bastante amplia e incluye componentes informáticos, tecnología de dispositivos, tecnología de circuitos digitales, tecnología de ensamblaje y tecnología y procesos de fabricación relacionados.
Los campos de investigación del software incluyen principalmente la programación, el software básico y la ingeniería de software. La programación se refiere al proceso de diseño y compilación de programas y es un vínculo básico en el desarrollo de software. El contenido de la investigación en programación incluye conceptos, especificaciones, herramientas, métodos y metodología básicos relacionados. Las características de desarrollo de este campo son: la transición de programación secuencial a programación concurrente y programación de intercambio de moneda; la transición de métodos de programación no estructurados a métodos de programación estructurados desde lenguajes de bajo nivel;