DICCIONARIO DE INFORMÁTICA Y TECNOLOGÍA
  ¿Qué significa Informática? - Información sobre Informática

Definición de Informática

Leandro Alegsa (Contacto) 2016-06-26
Anuncios

La informática es la ciencia que estudia el tratamiento automático de la información en computadoras, dispositivos electrónicos y sistemas informáticos.

La informática estudia los métodos y técnicas para almacenar, procesar y transmitir información y datos de forma automatizada. En otras palabras, estudia el uso de la computación y sus aplicaciones.

La informática se basa en múltiples ciencias como la matemática, la física, la electrónica, etc.

Su desarrollo comenzó a mediados del siglo XX, con grandes avances como el circuito integrado, la llegada de la PC, internet y el teléfono móvil.

De hecho la informática ha dado origen a la llamada Era de la Información, propulsora de la Revolución de la Información, visto como el tercer mayor progreso tecnológico de la humanidad junto con la Revolución Industrial (1750–1850, de nuestra era) y la Revolución Neolítica (agricultura) (8000–5000 antes de Cristo).


Definición de informática

Informática

La informática es el estudio sistemático de la viabilidad, estructura, expresión y mecanización de procedimiento metódicos (o algoritmos) que subyacen a la adquisición, representación, procesamiento, almacenamiento, comunicación y acceso a la información.


Origen del término informática

Proviene del francés informatique y fue acuñado por el ingeniero Philippe Dreyfus en 1962. Formó una conjunción entre las palabras "information" y "automatique".

Otra fuentes dicen que proviene de la palabra alemana Informatik de un documento de 1957 escrito por Karl Steinbuch llamado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información).

En tanto el inglés Walter F. Bauer, de forma independiente en el año 1962, cofundó la empresa denominada Informatics General.

En inglés es computer science.


Grandes contribuciones de la informática

- Inicio de la llamada Revolución digital o Revolución de la Información, que incluye internet y la Era de la Información.

- La concepción de los lenguajes de programación: herramientas de gran precisión de expresiones de información en varios niveles de abstracción.

- La criptografía. De hecho la victoria Aliada en la Segunda Guerra Mundial fue en gran parte debido a que fue quebrado el código Enigma alemán.

- La computación científica, que permite evaluar procesos y situaciones complejas, realizar experimentos completamente por software, y permite herramientas de predicción. Simulación de procesos físicos y químicos.

- Los algoritmos mejoran la eficiencia y liquidez de los mercados financieros, empleando inteligencia artificial y otras técnicas estadísticas y numéricas a gran escala.

- Los gráficos por computadora, que se usan para el entretenimiento: cine, televisión, publicidad, videojuegos.

- Optimización de máquinas, por ejemplo, la aviación moderna sería imposible sin la informática.

- La Inteligencia Artificial, probablemente sea el área donde mayores logros se verán en las próximas décadas.


Orígenes de la informática

Los fundamentos de la informática pueden remontarse cientos de años antes de la invención de la computadora digital moderna. Existían dispositivos o mecanismos para tareas de cálculos como el ábaco desde la antigüedad, incluso con cálculos más complejos como multiplicación y división.

En tanto los algoritmos para realizar cálculos han existido desde la antigüedad. Por ejemplo, los antiguos tratados sánscritos Shulba Sutras (o "Reglas de la cuerda"), son libros de algoritmos escritos por diversos autores alrededor del año 800 antes de Cristo para la construcción de objetos geométricos como altares de fuego utilizando una clavija y una cuerda, un precursor temprano del moderno campo de la geometría computacional. También contenía intentos de resolución de la cuadratura del círculo.


1600

Blaise Pascal diseñó y construyó la primera calculadora mecánica que funcionaba, la calculadora de Pascal, en el año 1642.

En 1673, Gottfried Leibniz demostró una calculadora digital mecánica llamada Stepped Reckoner. Él puede ser considerado el primer científico informático de la historia. Documentó, entre otras cosas, el sistema numérico binario.


1800

En 1820, Thomas de Colmar puso en marcha la primera calculadora mecánica industrial cuando lanzó su aritmómetro simplificado, fue la primera máquina de calcular lo suficientemente fuerte y lo suficientemente confiable para ser utilizada a diario en un entorno de oficina.

Charles Babbage (1791-1871), el padre de la computación
Charles Babbage (1791-1871), el padre de la computación

En 1822, Charles Babbage (1791-1871) comenzó el diseño de la primera calculadora mecánica automática, de nombre Difference Engine (Máquina diferencial). La cual eventualmente le dio la idea para la primera calculadora mecánica programable, su Analytical Engine (Máquina analítica).

Difference Engine o Máquina diferencial de Charles Babbage en 1833, exhibido en 1862
Difference Engine o Máquina diferencial de Charles Babbage en 1833, exhibido en 1862.


Comenzó el desarrollo de esta máquina en 1834 y en menos de dos años hizo un boceto de todas las características más destacadas que tendría una computadora moderna actual. Un paso crucial fue la adopción de un sistema de tarjetas perforadas derivado del telar de Jacquard, lo que la hacía "infinitamente" programable.

En 1843, durante la traducción de un artículo en francés de Analytical Engine, Ada Lovelace (1815-1852) escribió el que es considerado hoy el primer programa de computación de la historia, servía para computar números de Bernoulli.

Ada Lovelace (1815-1852), escribió el primer programa de computación de la historia.
Ada Lovelace (1815-1852), escribió el primer programa de computación de la historia.


En 1885, Herman Hollerith inventó el tabulador, que era usado para procesar tarjetas perforadas con información estadística; eventualmente esta compañía sería parte de IBM.


1900

En 1937, cien años después del sueño imposible de Babbage, Howard Aiken convenció a IBM (que estaba haciendo todo tipo de equipos de tarjetas perforadas y estaba también en el negocio de las calculadoras), para desarrollar la calculadora programable gigante, la ASCC/Harvard Mark I, basada en el Analytical Engine de Babbage, que a su vez utilizan tarjetas y una unidad central de cálculo. Cuando la máquina se terminó de construir, algunos dijeron que era "el sueño de Babbage hecho realidad".

Durante la década de 1940, mientras se desarrollaban nuevas máquinas de cómputo, el término computador comenzó a referirse a las máquinas en lugar de personas (el término se empleaba antes para designar a aquel que se dedicaba a los cálculos).

Se volvió más claro que las computadoras podían emplearse en muchas más aplicaciones que simplemente cálculos matemáticos.

El primer programa de grado de ciencias de la computación (el Cambridge Diploma in Computer Science), fue entregado por la Universidad de Cambridge en 1953.

Sin dudas IBM fue la empresa que más aportó al conocimiento informático en estas décadas.

Con el pasar del tiempo, la informática pasó de ser un campo dominado por expertos y profesionales, a estar disponible y accesible para cualquiera que se interese en esta.


Analfabetismo informático

Hace referencia a la falta de conocimientos básicos acerca de las nuevas tecnologías. Ver Analfabetismo informático.


Seguridad informática

Área especializada en la seguridad de la computación. Ver el artículo completo aquí: Seguridad informática.




Relacionado:

Computación


¿Mejoramos la definición?
Puntos: 3.4 (16 votos)






Respondemos tus consultas o comentarios a continuación:


¿Dudas? ¿necesita más información? Escriba y responderemos a tu email: clic aquí



 




Diccionario de informática
  Búsqueda por letras:
A - B - C - D - E - F - G - H - I - J - K - L - M - N - O - P - Q - R - S - T - U - V - W - X - Y - Z - 0,9
 
Búsqueda por categorías
: Almacenamiento - Aplicaciones - Audio - Compresión - Desarrollo web - Discos ópticos - Inteligencia Artificial - Memorias - Microprocesadores - Seguridad informática - Sistemas de archivos - Terminología de programación - UNIX - Windows - ver categorías

 
Búsqueda por palabras:





Preguntas
¿Extensión en una carpeta (directorio)?  - 2015-07-20

Qué diferencia hay entre un hacker y un cracker  - 2014-03-26

Razón de la arroba, ¿para qué funciona?  - 2014-03-26

¿Cuál es la diferencia entre ARCHIVO, CARPETA y SUBCARPETA?  - 2013-07-30

¿Cuáles fueron los aportes de Charles Babbages a la informática?  - 2011-09-12

¿Cuáles son los periféricos de la computadora?  - 2010-12-06

Diferencia entre los términos computador y computación  - 2010-11-03

¿Qué es dato y qué es información?  - 2010-05-17

¿Cómo hacer más entretenida una clase de informática?  - 2010-03-10

Diferencia de todas las generaciones de la computadora  - 2009-12-15

¿Cuál es la manera mas apropiada de aprender informática?  - 2009-11-21

Cómo crear un cuadro de texto que no se imprima en Word  - 2009-11-20

Diferencias entre carpeta y archivo  - 2009-10-27

Diferencias entre las computadoras de primera generación y las del siglo XXI  - 2009-09-17

¿Cuál es la diferencia entre Computación e Informática?  - 2009-08-20

¿Qué diferencia hay entre archivos y carpetas?  - 2009-05-18

¿Que realizan los técnicos en mantenimiento?  - 2009-04-24

¿Qué son las ciencias de la informática?  - 2009-04-09

Informática vs Computación: conceptos, diferencias y puntos de vista  - 2009-03-29

Todos los derechos reservados © 1998 - 2016 - ALEGSA - Santa Fe, Argentina.
Políticas del sitio web - Contacto - Publicidad