Informática - Computing

Simulación por ordenador
Simulación por computadora, una de las principales metodologías de computación cruzada.

La informática es cualquier actividad orientada a objetivos que requiera, se beneficie o cree maquinaria informática. Incluye el estudio y experimentación de procesos algorítmicos y el desarrollo tanto de hardware como de software . Tiene aspectos científicos , de ingeniería , matemáticos, tecnológicos y sociales. Las principales disciplinas informáticas incluyen ingeniería informática , informática , ciberseguridad , ciencia de datos , sistemas de información , tecnología de la información e ingeniería de software .

Computadora completa Turing del tubo de vacío temprano
ENIAC, la primera computadora digital electrónica programable de uso general
La Rasberry Pi
La Raspberry Pi , una computadora moderna de placa única desarrollada para promover la enseñanza de la informática y la ingeniería básicas en escuelas y países en desarrollo.

Definiciones

Los currículos de computación de ACM 2005 y 2020 definieron la "computación" de la siguiente manera:

"De manera general, podemos definir la computación como cualquier actividad orientada a objetivos que requiera, se beneficie o cree computadoras. Por lo tanto, la computación incluye diseñar y construir sistemas de hardware y software para una amplia gama de propósitos; procesar, estructurar y administrar varios tipos de información; realizar estudios científicos utilizando computadoras; hacer que los sistemas informáticos se comporten de manera inteligente; crear y usar medios de comunicación y entretenimiento; encontrar y recopilar información relevante para cualquier propósito en particular, etc. La lista es prácticamente interminable y las posibilidades son vastas . "

ACM también define siete subdisciplinas del campo de la computación :

Sin embargo, Computing Curricula 2005 también reconoce que el significado de "computación" depende del contexto:

Computación también tiene otros significados que son más específicos, según el contexto en el que se utiliza el término. Por ejemplo, un especialista en sistemas de información verá la computación de manera algo diferente a un ingeniero de software. Independientemente del contexto, hacer bien la informática puede ser complicado y difícil. Debido a que la sociedad necesita que la gente haga bien la informática, debemos pensar en la informática no solo como una profesión, sino también como una disciplina.

El mecanismo de Antikythera
El mecanismo de Antikythera , que data de entre 150 y 100 a. C., fue una de las primeras computadoras analógicas .

El término "informática" a veces se ha definido de forma estricta, como en un informe de ACM de 1989 sobre la informática como disciplina :

La disciplina de la computación es el estudio sistemático de los procesos algorítmicos que describen y transforman la información: su teoría, análisis, diseño, eficiencia, implementación y aplicación. La pregunta fundamental que subyace a toda la informática es "¿Qué se puede automatizar (eficientemente)?"

El término "computación" también es sinónimo de contar y calcular. En épocas anteriores, se usó en referencia a la acción realizada por las máquinas de computación mecánicas , y antes de eso, a las computadoras humanas .

Historia

La historia de la informática es más larga que la historia del hardware informático y la tecnología informática moderna e incluye la historia de los métodos destinados a lápiz y papel o tiza y pizarra, con o sin la ayuda de tablas.

La informática está íntimamente ligada a la representación de números . Pero mucho antes de que surgieran abstracciones como el número , existían conceptos matemáticos que servían a los propósitos de la civilización. Estos conceptos incluyen la correspondencia uno a uno (la base del conteo), la comparación con un estándar (usado para medir) y el triángulo rectángulo 3-4-5 (un dispositivo para asegurar un ángulo recto ).

La primera herramienta conocida para su uso en computación fue el ábaco , y se pensó que fue inventado en Babilonia alrededor del 2400 a. C. Su estilo de uso original era mediante líneas dibujadas en arena con guijarros. Los abaci, de un diseño más moderno, todavía se utilizan como herramientas de cálculo en la actualidad. Esta fue la primera ayuda de cálculo conocida, que precedió a los métodos griegos por 2.000 años {{ computadora | razón = ¿Qué métodos griegos? | Fecha = marzo de 2018}}.

La primera idea registrada del uso de la electrónica digital para la computación fue el artículo de 1931 "El uso de tiratrones para el conteo automático de alta velocidad de fenómenos físicos" por CE Wynn-Williams . El artículo de 1938 de Claude Shannon " Un análisis simbólico de circuitos de conmutación y relés " introdujo entonces la idea de utilizar la electrónica para operaciones algebraicas booleanas .

El concepto de transistor de efecto de campo fue propuesto por Julius Edgar Lilienfeld en 1925. John Bardeen y Walter Brattain , mientras trabajaban con William Shockley en Bell Labs , construyeron el primer transistor en funcionamiento , el transistor de contacto de punto , en 1947 . En 1953, la Universidad de Manchester construyó la primera computadora transistorizada , llamada Computadora de transistores . Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos que eran difíciles de fabricar en masa, lo que los limitaba a una serie de aplicaciones especializadas. El transistor de efecto de campo de óxido de metal y silicio (MOSFET o transistor MOS) fue inventado por Mohamed Atalla y Dawon Kahng en Bell Labs en 1959. Fue el primer transistor verdaderamente compacto que pudo miniaturizarse y producirse en masa para una amplia gama de usos. El MOSFET hizo posible construir chips de circuitos integrados de alta densidad , lo que llevó a lo que se conoce como la revolución de las computadoras o la revolución de las microcomputadoras .

Computadora

Una computadora es una máquina que manipula datos de acuerdo con un conjunto de instrucciones llamado programa de computadora. El programa tiene una forma ejecutable que la computadora puede usar directamente para ejecutar las instrucciones. El mismo programa, en su forma de código fuente legible por humanos, permite a un programador estudiar y desarrollar una secuencia de pasos conocida como algoritmo. Debido a que las instrucciones se pueden llevar a cabo en diferentes tipos de computadoras, un solo conjunto de instrucciones fuente se convierte en instrucciones de máquina de acuerdo con el tipo de CPU.

El proceso de ejecución lleva a cabo las instrucciones en un programa informático. Las instrucciones expresan los cálculos realizados por la computadora. Activan secuencias de acciones simples en la máquina ejecutora. Esas acciones producen efectos de acuerdo con la semántica de las instrucciones.

Hardware de la computadora

El hardware de la computadora incluye las partes físicas de una computadora, incluida la unidad central de procesamiento , la memoria y la entrada / salida . Los temas importantes en el campo del hardware de computadora son la lógica computacional y la arquitectura de la computadora .

Software de ordenador

El software de computadora, o simplemente " software ", es una colección de programas de computadora y datos relacionados que proporciona las instrucciones para decirle a una computadora qué hacer y cómo hacerlo. El software se refiere a uno o más programas de computadora y datos almacenados en la computadora para algunos propósitos. En otras palabras, el software es un conjunto de programas, procedimientos, algoritmos y su documentación relacionados con el funcionamiento de un sistema de procesamiento de datos. El software del programa realiza la función del programa que implementa, ya sea proporcionando instrucciones directamente al hardware de la computadora o sirviendo como entrada a otra pieza de software. El término se acuñó para contrastar con el antiguo término hardware (que significa dispositivos físicos). A diferencia del hardware, el software es intangible. El software también se usa a veces en un sentido más estricto, es decir, solo software de aplicación.

Software del sistema

El software del sistema, o software del sistema, es un software de computadora diseñado para operar y controlar el hardware de la computadora y para proporcionar una plataforma para ejecutar software de aplicación. El software del sistema incluye sistemas operativos , software de utilidades , controladores de dispositivos , sistemas de ventanas y firmware . Las herramientas de desarrollo de uso frecuente, como compiladores , enlazadores y depuradores, se clasifican como software de sistema.

Software de la aplicacion

El software de aplicación, también conocido como "aplicación" o "aplicación", es un software de computadora diseñado para ayudar al usuario a realizar tareas específicas. Los ejemplos incluyen software empresarial , software de contabilidad , suites de oficina , software de gráficos y reproductores multimedia . Muchos programas de aplicación tratan principalmente con documentos . Las aplicaciones pueden estar empaquetadas con la computadora y su software de sistema, o pueden publicarse por separado. Algunos usuarios están satisfechos con las aplicaciones incluidas y nunca necesitan instalar aplicaciones adicionales. El software de aplicación se contrasta con el software del sistema y el middleware , que administran e integran las capacidades de una computadora, pero generalmente no las aplican directamente en el desempeño de tareas que benefician al usuario. El software del sistema sirve a la aplicación, que a su vez sirve al usuario. El software de aplicación aplica el poder de una plataforma informática o software de sistema en particular para un propósito particular. Algunas aplicaciones como Microsoft Office están disponibles en versiones para varias plataformas diferentes; otros tienen requisitos más limitados y, por lo tanto, se denominan, por ejemplo, una aplicación de Geografía para Windows o una aplicación de Android para educación o juegos de Linux . A veces, surge una aplicación nueva y popular que solo se ejecuta en una plataforma, lo que aumenta la conveniencia de esa plataforma. A esto se le llama una aplicación asesina .

Red de computadoras

Una red de computadoras, a menudo denominada simplemente red, es una colección de componentes de hardware y computadoras interconectadas por canales de comunicación que permiten compartir recursos e información. Cuando al menos un proceso en un dispositivo puede enviar / recibir datos hacia / desde al menos un proceso que reside en un dispositivo remoto, entonces se dice que los dos dispositivos están en una red.

Las redes pueden clasificarse según una amplia variedad de características, como el medio utilizado para transportar los datos, el protocolo de comunicaciones utilizado, la escala, la topología y el alcance organizativo.

Los protocolos de comunicación definen las reglas y los formatos de datos para intercambiar información en una red informática y proporcionan la base para la programación de la red . Los protocolos de comunicación más conocidos incluyen Ethernet , un estándar de capa de enlace y hardware que es omnipresente en las redes de área local , e Internet Protocol Suite , que define un conjunto de protocolos para internetworking, es decir, para la comunicación de datos entre múltiples redes, así como host- transferencia de datos al host y formatos de transmisión de datos específicos de la aplicación.

Las redes de computadoras a veces se consideran una subdisciplina de la ingeniería eléctrica , las telecomunicaciones , la informática , la tecnología de la información o la ingeniería informática , ya que se basa en la aplicación teórica y práctica de estas disciplinas.

Internet

Internet es un sistema global de redes de computadoras interconectadas que utilizan el conjunto de protocolos de Internet estándar (TCP / IP) para servir a miles de millones de usuarios que consta de millones de redes privadas, públicas, académicas, comerciales y gubernamentales, de alcance local a global. que están vinculados por una amplia gama de tecnologías de redes electrónicas, inalámbricas y ópticas. Internet lleva una amplia gama de recursos y servicios de información , como los documentos de hipertexto interconectados de la World Wide Web y la infraestructura para respaldar el correo electrónico .

Programación de computadoras

La programación de computadoras en general es el proceso de escribir, probar, depurar y mantener el código fuente y la documentación de los programas de computadora . Este código fuente está escrito en un lenguaje de programación , que es un lenguaje artificial a menudo más restrictivo o exigente que los lenguajes naturales , pero que la computadora puede traducir fácilmente. El propósito de la programación es invocar el comportamiento deseado (personalización) de la máquina. El proceso de escribir código fuente de alta calidad requiere conocimiento tanto del dominio de la aplicación y el dominio de la informática. El software de la más alta calidad es desarrollado por un equipo de varios expertos en el dominio, cada persona un especialista en algún área de desarrollo. Pero el término programador puede aplicarse a una variedad de programas de calidad, desde piratas informáticos hasta contribuyentes de código abierto y profesionales. Y un solo programador podría hacer la mayor parte o toda la programación informática necesaria para generar la prueba de concepto para lanzar una nueva aplicación "asesina" .

Programador

Un programador, programador de computadoras o codificador es una persona que escribe software de computadora . El término programador de computadoras puede referirse a un especialista en un área de la programación de computadoras oa un generalista que escribe código para muchos tipos de software. Quien practica o profesa un enfoque formal de la programación también puede ser conocido como analista programador. El lenguaje de computadora principal de un programador ( C , C ++ , Java , Lisp , Python , etc.) a menudo se antepone a los títulos anteriores, y aquellos que trabajan en un entorno web a menudo prefieren sus títulos con web . El término programador puede ser utilizado para referirse a un desarrollador de software , ingeniero de software , el informático o analista de software . Sin embargo, los miembros de estas profesiones suelen poseer otras habilidades de ingeniería de software , más allá de la programación.

Industria informática

La industria informática está formada por todas las empresas involucradas en el desarrollo de programas informáticos , el diseño de hardware e infraestructuras de redes informáticas , la fabricación de componentes informáticos y la prestación de servicios de tecnología de la información , incluida la administración y el mantenimiento de sistemas .

Industria del software

La industria del software incluye empresas dedicadas al desarrollo , mantenimiento y publicación de software . La industria también incluye servicios de software , como capacitación , documentación y consultoría .

Subdisciplinas de la informática

Ingeniería Informática

La ingeniería informática es una disciplina que integra varios campos de la ingeniería eléctrica y la informática necesarios para desarrollar hardware y software informáticos. Los ingenieros informáticos suelen tener formación en ingeniería electrónica (o ingeniería eléctrica ), diseño de software e integración de hardware y software en lugar de solo ingeniería de software o ingeniería electrónica. Los ingenieros informáticos están involucrados en muchos aspectos de hardware y software de la informática, desde el diseño de microprocesadores individuales , computadoras personales y supercomputadoras , hasta el diseño de circuitos . Este campo de la ingeniería no solo se centra en el diseño de hardware dentro de su propio dominio, sino también en las interacciones entre el hardware y el mundo que lo rodea.

Ingeniería de software

La ingeniería de software (SE) es la aplicación de un enfoque sistemático, disciplinado y cuantificable para el diseño, desarrollo, operación y mantenimiento de software y el estudio de estos enfoques; es decir, la aplicación de la ingeniería al software. En términos sencillos, es el acto de utilizar conocimientos para concebir, modelar y escalar una solución a un problema. La primera referencia al término es la Conferencia de Ingeniería de Software de la OTAN de 1968 y estaba destinada a provocar pensamientos sobre la " crisis del software " percibida en ese momento. El desarrollo de software , un término muy utilizado y más genérico, no necesariamente subsume el paradigma de la ingeniería. Los conceptos generalmente aceptados de la Ingeniería de Software como disciplina de ingeniería se han especificado en la Guía del Cuerpo de Conocimientos de Ingeniería de Software (SWEBOK). El SWEBOK se ha convertido en un estándar ISO / IEC TR 19759: 2015 aceptado internacionalmente.

Ciencias de la Computación

La informática o ciencias de la computación (abreviado CS o Comp Sci) es el enfoque científico y práctico de la computación y sus aplicaciones. Un científico de la computación se especializa en la teoría de la computación y el diseño de sistemas computacionales.

Sus subcampos se pueden dividir en técnicas prácticas para su implementación y aplicación en sistemas informáticos y áreas puramente teóricas. Algunos, como la teoría de la complejidad computacional , que estudia las propiedades fundamentales de los problemas computacionales , son muy abstractos, mientras que otros, como los gráficos por computadora , enfatizan las aplicaciones del mundo real. Otros se centran en los desafíos de la implementación de cálculos. Por ejemplo, la teoría del lenguaje de programación estudia enfoques para la descripción de cálculos, mientras que el estudio de la programación de computadoras en sí mismo investiga varios aspectos del uso de lenguajes de programación y sistemas complejos , y la interacción humano-computadora se enfoca en los desafíos para hacer que las computadoras y los cálculos sean útiles y utilizables. y universalmente accesible para los humanos .

La seguridad cibernética

Ciencia de los datos

Sistemas de información

"Sistemas de información (SI)" es el estudio de redes complementarias de hardware y software (ver tecnología de la información ) que las personas y las organizaciones utilizan para recopilar, filtrar, procesar, crear y distribuir datos . La ACM Es Informática Carreras sitio web dice

"La mayoría de los programas de [grado] en SI se encuentran en escuelas de negocios; sin embargo, pueden tener diferentes nombres, como sistemas de información gerencial, sistemas de información computacional o sistemas de información empresarial. Todos los títulos de SI combinan temas comerciales e informáticos, pero el énfasis entre las cuestiones técnicas y organizativas varían entre los programas. Por ejemplo, los programas difieren sustancialmente en la cantidad de programación requerida ".

El estudio une los negocios y las ciencias de la computación utilizando los fundamentos teóricos de la información y la computación para estudiar varios modelos de negocios y procesos algorítmicos relacionados dentro de una disciplina de ciencias de la computación.

El campo de los Sistemas de Información Computarizada (CIS) estudia las computadoras y los procesos algorítmicos, incluidos sus principios, sus diseños de software y hardware, sus aplicaciones y su impacto en la sociedad, mientras que IS enfatiza la funcionalidad sobre el diseño.

Tecnologías de la información

La tecnología de la información (TI) es la aplicación de computadoras y equipos de telecomunicaciones para almacenar, recuperar, transmitir y manipular datos, a menudo en el contexto de una empresa u otra empresa. El término se usa comúnmente como sinónimo de computadoras y redes de computadoras, pero también abarca otras tecnologías de distribución de información como la televisión y los teléfonos. Varias industrias están asociadas con la tecnología de la información, como hardware , software , electrónica , semiconductores , internet , equipos de telecomunicaciones , comercio electrónico y servicios informáticos .

Investigación y tecnologías emergentes

La computación basada en ADN y la computación cuántica son áreas de investigación activa tanto en hardware como en software (como el desarrollo de algoritmos cuánticos ). La infraestructura potencial para tecnologías futuras incluye origami de ADN en fotolitografía y antenas cuánticas para transferir información entre trampas de iones. Para 2011, los investigadores habían entrelazado 14 qubits . Los circuitos digitales rápidos (incluidos los basados ​​en uniones de Josephson y la tecnología cuántica de flujo único rápido ) se están volviendo más casi realizables con el descubrimiento de superconductores a nanoescala .

Los dispositivos de fibra óptica y fotónicos (ópticos), que ya se han utilizado para transportar datos a largas distancias, han comenzado a ser utilizados por los centros de datos, junto con CPU y componentes de memoria semiconductores. Esto permite la separación de la RAM de la CPU mediante interconexiones ópticas. IBM ha creado un circuito integrado con procesamiento de información electrónico y óptico en un solo chip. Esto se denomina "nanofotónica integrada en CMOS" o (CINP). Uno de los beneficios de las interconexiones ópticas es que las placas base que antes requerían un cierto tipo de sistema en un chip (SoC) ahora pueden mover controladores de red y memoria dedicados anteriormente fuera de las placas base, extendiendo los controladores al rack. Esto permite la estandarización de las interconexiones de backplane y las placas base para múltiples tipos de SoC, lo que permite actualizaciones más oportunas de las CPU.

Otro campo de investigación es la espintrónica . La espintrónica puede proporcionar capacidad de cálculo y almacenamiento, sin acumulación de calor. Se están realizando algunas investigaciones sobre chips híbridos, que combinan fotónica y espintrónica. También hay investigaciones en curso sobre la combinación de plasmónicos , fotónicos y electrónicos.

Computación en la nube

La computación en la nube es un modelo que permite el uso de recursos informáticos, como servidores o aplicaciones, sin necesidad de mucha interacción entre el propietario de estos recursos y el usuario que los utiliza. Por lo general, se ofrece como un servicio, lo que lo convierte en otro ejemplo de software como servicio , plataformas como servicio e infraestructura como servicio, según la funcionalidad ofrecida. Las características clave incluyen acceso bajo demanda, amplio acceso a la red y la capacidad de escalado rápido. Permite que los usuarios individuales o las pequeñas empresas se beneficien de las economías de escala .

Un área de interés en este campo es su potencial para apoyar la eficiencia energética. Permitir que ocurran miles de instancias de computación en una sola máquina en lugar de miles de máquinas individuales podría ayudar a ahorrar energía. También podría facilitar la transición a más energía renovable, ya que bastaría con alimentar una granja de servidores con un conjunto de paneles solares o turbinas eólicas en lugar de los hogares de millones de personas.

Con la informática centralizada, el campo plantea varios desafíos, especialmente en seguridad y privacidad. La legislación actual no protege suficientemente a los usuarios de las empresas que manipulan incorrectamente sus datos en los servidores de la empresa. Esto sugiere la posibilidad de nuevas regulaciones legislativas sobre la computación en la nube y las empresas de tecnología.

Computación cuántica

La computación cuántica es un área de investigación que reúne las disciplinas de la informática, la teoría de la información y la física cuántica. La idea de que la información es una parte básica de la física es relativamente nueva, pero parece haber un fuerte vínculo entre la teoría de la información y la mecánica cuántica. Mientras que la computación tradicional opera en un sistema binario de unos y ceros, la computación cuántica usa qubits . Los qubits son capaces de estar en superposición, lo que significa que están en ambos estados, uno y cero, simultáneamente. Esto significa que el qubit no está entre 1 y 0, pero en realidad el valor del qubit cambiará dependiendo de cuándo lo mida. Este rasgo de los qubits se llama entrelazamiento cuántico y es la idea central de la computación cuántica y es lo que permite a las computadoras cuánticas hacer las ecuaciones a gran escala para las que se utilizan. La computación cuántica se usa a menudo para la investigación científica en la que una computadora normal no tiene suficiente poder computacional para hacer los cálculos necesarios. Un buen ejemplo sería el modelado molecular . Las moléculas grandes son demasiado complejas para que las computadoras modernas calculen lo que les sucede durante una reacción, pero el poder de las computadoras cuánticas podría abrir las puertas para comprender mejor estas moléculas.

Ver también

Referencias

enlaces externos