miércoles, 1 de mayo de 2013


Sistemas informáticos

CONCEPTOS
Informática: El término `informática' proviene de la fusión de los términos “Información” y “automática”, y se define como la ciencia que estudia el tratamiento automático y racional de la información, como soporte de los conocimientos y comunicaciones humanas, llevado a cabo mediante elementos automáticos, así como el conjunto de técnicas, métodos y máquinas aplicadas a dicho tratamiento. La Real Academia Española de la Lengua da la siguiente definicion: “Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de computadoras electrónicas”. De esta última definición podemos deducir que hay tanto una ciencia informática como unas técnicas informáticas.
Cuando se ocupa de la información como materia esencial de estudio, con esta información es preciso: representarla en forma eficiente y automatizable, transmitirla sin errores ni pérdidas, y almacenarla para poder acceder a ella y recuperarla tantas veces como sea preciso procesarla para obtener nuevas informaciones más elaboradas y más útiles a nuestros propósitos
Sistemas informáticos: Conjunto de elementos interconectados o relacionados para el tratamiento de información. El más básico es un ordenador típico. Los más complejos son las redes, sistemas de procesamiento en paralelo,...
En este término suelen incluirse los elementos físicos, el software, y otros relacionados. Así el contenido en “hardware” de una habitación en la que se encuentra instalado un ordenador también se puede denominar “el sistema”, es decir, amplios elementos fabricados por distintas empresas y con diferentes cometidos. Suele contener este término el software básico, tal como el sistema operativo, y los compiladores, depuradores, enlazadores,... También un conjunto de programas dedicados a una aplicación específica, lo que incluye este software, el básico, los soportes, la documentación, manuales de procedimiento,...
Información: Comunicación o adquisición de conocimientos que permiten ampliar o precisar los que se poseen sobre una materia determinada. Podría entenderse que si no se consigue alguna de las dos finalidades señaladas, no habría información, pero es prácticamente imposible que no concurra alguna de ellas cuando un ser humano se encuentra ante una exposición de conocimientos. Para que la información sea la adecuada se tendrán que cumplir unos cuantos requisitos: precisión, significatividad, etc., que se expondrán más adelante.
2 INTRODUCCIÓN
La lógica se define como aquélla representación del conocimiento y/o del formalismo racional originalmente desarrollada por matemáticos para formalizar el razonamiento matemático.
Se considera componente lógico de un sistema informático lo que no se puede considerar tangible, es decir, todo aquello que tiene que ver con la información que se maneja en el sistema y con las herramientas intangibles necesarias para ello. No debe confundirse con el concepto de lógica que impera en el mundo de la inteligencia artificial (lógica de predicados o la lógica proposicional).
Se pueden distinguir cuatro grandes grupos considerados lógicos en un sistema:
- Datos: son los valores numéricos, o bien caracteres, medidas multidimensionales, tales como vectores, matrices,...
- La información: como tal, es un conjunto de datos relacionados por alguna estructura o alguna relación de tipo sintáctico. En general, se la considera un subconjunto dentro de los datos.
- El conocimiento: constituido por elementos de información con ciertos significados semánticos y se le suele considerar un subconjunto de la información
- La inteligencia: conjunto específico de la información capaz de interpretar y gestionar otra. Es el subconjunto más interior del espacio total de datos.
Desde el punto de vista operativo y temporal, los ordenadores nacieron como herramientas que servían para el procesamiento de datos, como los primitivos procesadores que trabajaban con tarjetas perforadas mediante las que se les introducían datos e instrucciones, y producían datos procesados también en forma de tarjetas que se clasificaban para la siguiente fase. Fueron relativamente frecuentes en grandes corporaciones y centros de cálculo como el MIT (Massachussets Institute of Technology).
A medida que los datos se iban haciendo más y más complejos, mezclándose estructuras y añadiendo otras nuevas, apareció la necesidad de diseñar métodos para el procesado de la información, por lo que nacieron los primeros programas y aplicaciones informáticas, medianamente complejos, en lenguajes como el lenguaje máquina o el ensamblador. En la actualidad, la complejidad que existe en las bases de datos y conocimientos impone una tendencia hacia el desarrollo y fabricación de sistemas expertos para ciertas áreas específicas, como es el caso de la educación, la legislación, la sanidad, etc.
Las líneas de trabajo para un futuro a medio plazo se encaminan hacia la consecución de la inteligencia artificial, conocida como AI (Artificial Intelligence), en la que los sistemas no sólo son capaces de aprender sino de elegir el método más adecuado para hacerlo.
3 DATOS, TIPOS, REPRESENTACIÓN Y PROTECCIÓN
El funcionamiento de un sistema informático se puede asemejar al de una caja de entradas y salidas, uno de los modelos más simples para la interpretación del medio físico. Para este caso se pueden considerar dos tipos de objetos de trabajo: los datos y las instrucciones. Los datos son los caracteres y valores que son necesarios para el funcionamiento del sistema (ver punto anterior), mientras que las instrucciones señalan qué operaciones y procesos deben llevarse a cabo con esos datos.
Así, el ordenador permite la recepción de datos entrantes, que se procesan según indican las instrucciones que posee el sistema. Por último, proporciona unos datos de salida que son los resultados.
3.1 Definición de datoLa palabra datos proviene del latín datum (plural data) que significa “lo que se da”, en el sentido de “lo que acontece”. El diccionario de la Real Academia de la Lengua Española dice que los datos son: “antecedentes necesarios para llegar al conocimiento exacto de una cosa o para deducir las consecuencias legítimas de un hecho”.
Los datos suelen ser magnitudes numéricas directamente medidas o captadas, pero también pueden ser nombres o conjuntos de símbolos; o valores cualitativos; o fahses enteras, premisas, imágenes, sonidos, colores, etc.
Los datos, como la información, se representa mediante secuencias de símbolos. Por ejemplo, en nuestra vida diaria representamos las palabras mediante letras tomadas de nuestro alfabeto. Éste es simplemente uno entre los muchos alfabetos existentes. En base a un alfabeto cualquiera que establecemos por un acuerdo cultural, podemos representar cualquier información compuesta de palabras y cantidades numéricas, y así el que lee entenderá al que escribe.
Desde un punto de vista más operativo, un dato consiste en una información que ha sido preparada, frecuentemente en un formato particular, para un propósito específico. En el ámbito de la informática tiene tres acepciones diferentes.
En un programa informático, los datos pueden distinguirse de las instrucciones. Por ejemplo, en el código fuente las declaraciones de datos son diferentes de las declaraciones ejecutables. Así, en el momento de la ejecución, el espacio de almacenamiento se divide entre los datos -ya sean constantes o variables- y las instrucciones. Y los archivos de datos se distinguen de los archivos de programa.
En segundo lugar, en el contexto de un programa individual o en el de un equipo de programas, dato puede usarse en un sentido más restrictivo significando la entrada de información -inputs- frente a los resultados o salida de la misma -outputs-; como es el caso de la definición de datos o su diseño.
Por último, y de manera más general, se usa la palabra dato para separarla cada vez más de otros aspectos de los programas modernos como la voz, el texto o la imagen. Este uso enfoca sobre la naturaleza altamente formateada de los datos en las aplicaciones tradicionales destinadas al proceso de datos, como concepto opuesto a estructuras más libres como el texto en lenguaje natural, las comunicaciones de voz y las imágenes visuales, muy típicas de aplicaciones en entorno visual y/o multimedia.
3.2 Tipos de datosSe pueden considerar tres tipos de datos, según el punto del proceso en el que se encuentren:
- Datos de entrada: son los que llegan al ordenador a través de alguno de los periféricos de entrada, tales como el teclado, lectores, etc.; o bien llegan desde unidades de almacenamiento, como son los discos. A veces este concepto se confunde con captura de datos -actividad de introducción de datos, casi siempre automatizada, en el que la recepción de los datos tiene una importancia secundaria-, y con la preparación de los datos -labor que supone preparar los datos para su entrada en el sistema, formateándolos o codificándolos-.
- Datos intermedios: son los resultados que se van produciendo y que no forman parte de la salida porque no se especificó de esa manera en el diseño del programa.
- Datos de salida: Son los datos resultados del procesamiento de los datos de entrada y de los intermedios. La forma de obtenerlos para su análisis es por medio de un periférico de salida, como son las pantallas o las impresoras; o bien almacenarlos.
Para poder llevar a cabo este trabajo, el ordenador deberá contar con un intérprete, es decir, un sistema fijo y consistente que permita pasar un número o un carácter a un valor en bytes. Una vez que el ordenador ha utilizado ese valor para el procesamiento y ha obtenido un resultado -en bytes-, deberá usar el intérprete de nuevo, pero de manera inversa, para pasar esos bytes a una representación habitual para el operador. El proceso por el cual se pasa de un lenguaje máquina a un lenguaje comprensible por un usuario, o por otra máquina, se le conoce como traducción.
3.3 Representación de los datosEste proceso consiste en tomar los datos tal como los maneja la máquina y, mediante una traducción previa de los mismos, convertirlos en datos legibles por el operador del sistema con la finalidad de plasmarlos en un medio que permita su lectura.
El periférico más utilizado para la representación de datos es el monitor, seguido por la impresora.
La representación concluirá, la mayor de las veces, con una salida de naturaleza muy similar a los datos con los que se trabaja desde el principio. Por ejemplo, si un usuario está manejando gráficos con un programa de diseño, lo más habitual es concluir con un gráfico en la pantalla o en la impresora. Si se trabaja con datos numéricos, o textos, o documentos, ocurre de manera similar. Es decir, la naturaleza de los datos de entrada y de salida suele ser la misma.
En otras ocasiones ocurrirá de manera diferente, pues un usuario puede introducir números en un ordenador y obtener una salida textual o gráfica.
3.4 Encriptación o protección de datosSe trata de un proceso por el cual un mensaje -tal como un texto o un gráfico- se protege para que las personas que no estén autorizadas a recibirlo no puedan acceder a la información que contiene. Esta actividad se denomina criptografía, y la ciencia que la estudia y la desarrolla se denomina criptología.
Al mensaje original se le da el nombre de mensaje plano o texto plano, mientras que al mensaje convertido se le conoce como clave o cifra, texto cifrado o código.
En su forma más simple, el remitente y el destinatario poseen copias idénticas de una clave secreta, y además poseen un algoritmo o procedimiento matemático para generar secuencias pseudoaleatorias de bits que representan el mensaje. En una primera fase, el remitente utiliza ese algoritmo para aplicarlo a su mensaje y concluir en el documento cifrado. El remitente, aplicando la misma clave y el mismo algoritmo, realiza el procedimiento inverso y recrea el documento original.
Otro sistema alternativo es el del sistema del libro de claves, por el cual el remitente y el destinatario poseen copias de una tabla de sustitución secreta., la cual se mecaniza por su inclusión en un sistema informático que permite la traducción de mensajes con rapidez.
4 INFORMACIÓN Comunicación o adquisición de conocimientos que permiten ampliar o precisar los que se poseen sobre una materia determinada (tal como se indicó en el apartado Conceptos).
La información que se procesa puede ser superflúa o incompleta, o poco clara, o demasiado voluminosa, o llegar demasiado tarde para ser utilizada. Una “buena” información tiene que reunir las siguientes cualidades:
- Precisión: La información ha de ser precisa. La precisión a exigir dependerá de la aplicación concreta que tenga la información que se está manejando. Hay que evitar tanto defectos de precisión -“en el ordenador hay unos cuantos programas”- como excesos de precisión -“Los cuatro programas suman una ocupación total de tres millones cuarenta y dos mil setecientos cincuenta y nueve bytes-.
- Exactitud: La información ha de ser exacta. La exactitud se mide en términos de porcentaje de error, como una medida del alejamiento de la realidad. Tambien aquí la aplicación concreta marcará en cada caso la exactitud que ha de exigirse. No podrá obtenerse la exactitud suficiente si los datos de partida son incorrectos o erróneos. Para el caso de una diana y unos tiros de prueba, la precisión es lo apretado de la nube de los impactos, mientras que la exactitud es la distancia del centro de la nube al centro de la diana.
- Oportunidad: La información ha de ser oportuna, es decir, debe llegar al usuario en el momento adecuado para que éste pueda actuar, utilizando dicha información, antes de que esa acción sea inútil. El tiempo disponible para que la información llegue oportunamente variará mucho en función de la aplicación y puede ser desde unos pocos microsegundos (en algunos controles de proceso) a varios meses (en macroeconomía y sociología). También puede ser inoportuno a veces llegar antes de tiempo. En algunas aplicaciones interactivas se introducen retrasos programados en las respuestas del ordenador para evitar que el exceso de velocidad de la máquina moleste o presione al usuario.
- Integridad: La información debe ser completa. En la mayoría de los casos es inalcanzable una integridad del 100%; pero siempre conviene que sea lo más completa posible. La integridad no debe provocar que la información contenga cosas superfluas o redundantes, es decir, no hay que caer en el exceso de información.
- Significatividad: La información debe ser clara y relevante, de tal modo que su recepción sea fácil y rápida. Para ello, se puede acompañar dicha información con ayudas gráficas, visuales, auditivas o de otro tipo.
5 SISTEMAS DE CODIFICACIÓN Un alfabeto no es más que un conjunto, fijado por acuerdo cultural, de símbolos elementales en base a los cuales se forma la información.
Es importante recalcar la arbitrariedad de cualquier alfabeto porque si la informática ha logrado el tratamiento automático de la información con máquinas, ha sido gracias a este concepto. No es necesario que el alfabeto que usa una máquina en su interior sea el mismo que el que utiliza el hombre que la ha construido y la maneja, basta con que la traducción de los símbolos internos a los externos o viceversa se efectúe de una manera cómoda, y a ser posible (y lo és) automáticamente por la propia máquina.
Cuando una información que originalmente venía representada en un alfabeto A1 es transcrita a un segundo alfabeto A2, se dice que ha sido codificada. Así, se puede definir un código como una representación biunívoca de la información de tal forma que a cada una de las unidaes de información se le asigna una combinación de símbolos determinada. Un ejemplo clásico es el código Morse empleado en los inicios de la telegrafía.
La acción de codificar, es decir la codificación, se puede definir como el proceso por el cual se transforma una información simbólica -el alfabeto fuente- en otra distinta -el alfabeto destino-, sin pérdida de información.
La primera fase se denomina codificación, mientras que la segunda fase se llama decodificación. Los programas que permiten realizar cada fase se conocen como codificador y decodificador, respectivamente, y pueden ser funcionales en forma hardware o software. Estas herramientas suelen consistir en un procedimiento de tipo algorítmico. Cuando existe un aparato que realiza estas tareas se le llama codificador-decodificador o, abreviadamente, y en el argot informático, por codec.
No confundir estos términos con los que se aplican para referirse al lenguaje con el que se escriben algunos programas, como es el caso del código máquina y el código fuente.
Conviene hacer un inciso y refrescar los distintos tipos de caracteres que se pueden encontrar en los componentes lógicos de los sistemas informáticos. Estos caracteres incluyen los alfanuméricos ingleses, los especiales y los caracteres de operación, incluidos todos ellos en los denominados caracteres gráficos. Por otro lado se encuentran los caracteres de control. Desde el punto de vista de la pantalla, se distinguen unos de otros porque los caracteres gráficos dejan algún tipo de marca impresa en la pantalla o un espacio en blanco, mientras que los caracteres de control producen un efecto particular.
5.1 Tipos de código Según su morfología, se pueden dividir en dos tipos, numéricos y alfanuméricos:
- Representación numérica: como cadenas de números que tienen un significado numérico o textual. Los más comunes son el código binario, el hexadecimal (base 16), el octal (o bytes, base 8), y el de coma flotante. El que cotidianamente usamos es el decimal, en el que los datos se presentan por cadenas de cifras cuyos dígitos sólo varían entre 0 y 9.
- Representación alfanumérica: que son los que representan el alfabeto, los números, caracteres sintácticos, y caracteres especiales como los de control del ordenador. Los más usados son el código ASCII y el EBCDIC.