Sistemas informáticos
CONCEPTOS
Informática: El término `informática'
proviene de la fusión de los términos “Información” y “automática”, y se define
como la ciencia que estudia el tratamiento automático y racional de la
información, como soporte de los conocimientos y comunicaciones humanas,
llevado a cabo mediante elementos automáticos, así como el conjunto de
técnicas, métodos y máquinas aplicadas a dicho tratamiento. La Real Academia
Española de la Lengua
da la siguiente definicion: “Conjunto de conocimientos científicos y técnicas
que hacen posible el tratamiento automático de la información por medio de
computadoras electrónicas”. De esta última definición podemos deducir que hay
tanto una ciencia informática como unas técnicas informáticas.
Cuando se ocupa de la información como materia esencial de
estudio, con esta información es preciso: representarla en forma eficiente y
automatizable, transmitirla sin errores ni pérdidas, y almacenarla para poder
acceder a ella y recuperarla tantas veces como sea preciso procesarla para
obtener nuevas informaciones más elaboradas y más útiles a nuestros propósitos
Sistemas informáticos:
Conjunto de elementos interconectados o relacionados para el tratamiento de
información. El más básico es un ordenador típico. Los más complejos son las
redes, sistemas de procesamiento en paralelo,...
En este término suelen incluirse los elementos físicos, el software, y otros relacionados.
Así el contenido en “hardware” de una habitación en la que se encuentra
instalado un ordenador también se puede denominar “el sistema”, es decir,
amplios elementos fabricados por distintas empresas y con diferentes cometidos.
Suele contener este término el software básico, tal como el sistema operativo,
y los compiladores, depuradores, enlazadores,... También un conjunto de
programas dedicados a una aplicación específica, lo que incluye este software,
el básico, los soportes, la documentación, manuales de procedimiento,...
Información: Comunicación o adquisición de
conocimientos que permiten ampliar o precisar los que se poseen sobre una
materia determinada. Podría entenderse que si no se consigue alguna de las dos
finalidades señaladas, no habría información, pero es prácticamente imposible
que no concurra alguna de ellas cuando un ser humano se encuentra ante una
exposición de conocimientos. Para que la información sea la adecuada se tendrán
que cumplir unos cuantos requisitos: precisión, significatividad, etc., que se
expondrán más adelante.
2 INTRODUCCIÓN
La lógica se define como aquélla representación del conocimiento
y/o del formalismo racional originalmente desarrollada por matemáticos para
formalizar el razonamiento matemático.
Se considera componente lógico de un sistema informático lo que
no se puede considerar tangible, es decir, todo aquello que tiene que ver con
la información que se maneja en el sistema y con las herramientas intangibles
necesarias para ello. No debe confundirse con el concepto de lógica que impera
en el mundo de la inteligencia artificial (lógica de predicados o la lógica
proposicional).
Se pueden distinguir cuatro grandes grupos considerados lógicos
en un sistema:
- Datos: son los valores numéricos, o
bien caracteres, medidas multidimensionales, tales como vectores, matrices,...
- La información: como tal, es un conjunto de
datos relacionados por alguna estructura o alguna relación de tipo sintáctico.
En general, se la considera un subconjunto dentro de los datos.
- El conocimiento: constituido por elementos de
información con ciertos significados semánticos y se le suele considerar un
subconjunto de la información
- La inteligencia: conjunto específico de la
información capaz de interpretar y gestionar otra. Es el subconjunto más
interior del espacio total de datos.
Desde el punto de vista operativo y temporal, los ordenadores
nacieron como herramientas que servían para el procesamiento de datos, como los
primitivos procesadores que trabajaban con tarjetas perforadas mediante las que
se les introducían datos e instrucciones, y producían datos procesados también
en forma de tarjetas que se clasificaban para la siguiente fase. Fueron
relativamente frecuentes en grandes corporaciones y centros de cálculo como el
MIT (Massachussets Institute of Technology).
A medida que los datos se iban haciendo más y más complejos,
mezclándose estructuras y añadiendo otras nuevas, apareció la necesidad de
diseñar métodos para el procesado de la información, por lo que nacieron los
primeros programas y aplicaciones informáticas, medianamente complejos, en
lenguajes como el lenguaje máquina o el ensamblador. En la actualidad, la
complejidad que existe en las bases de datos y conocimientos impone una
tendencia hacia el desarrollo y fabricación de sistemas expertos para ciertas
áreas específicas, como es el caso de la educación, la legislación, la sanidad,
etc.
Las líneas de trabajo para un futuro a medio plazo se encaminan
hacia la consecución de la inteligencia artificial, conocida como AI (Artificial
Intelligence), en la que los sistemas no sólo son capaces de aprender sino
de elegir el método más adecuado para hacerlo.
3 DATOS, TIPOS, REPRESENTACIÓN Y PROTECCIÓN
El funcionamiento de un sistema informático se puede asemejar al
de una caja de entradas y salidas, uno de los modelos más simples para la
interpretación del medio físico. Para este caso se pueden considerar dos tipos
de objetos de trabajo: los datos y las instrucciones. Los datos son los
caracteres y valores que son necesarios para el funcionamiento del sistema (ver
punto anterior), mientras que las instrucciones señalan qué operaciones y
procesos deben llevarse a cabo con esos datos.
Así, el ordenador permite la recepción de datos entrantes, que
se procesan según indican las instrucciones que posee el sistema. Por último,
proporciona unos datos de salida que son los resultados.
3.1 Definición de datoLa
palabra datos proviene del latín datum (plural data) que significa “lo que se
da”, en el sentido de “lo que acontece”. El diccionario de la Real Academia de la Lengua Española
dice que los datos son: “antecedentes necesarios para llegar al conocimiento
exacto de una cosa o para deducir las consecuencias legítimas de un hecho”.
Los datos suelen ser magnitudes numéricas directamente medidas o
captadas, pero también pueden ser nombres o conjuntos de símbolos; o valores
cualitativos; o fahses enteras, premisas, imágenes, sonidos, colores, etc.
Los datos, como la información, se representa mediante
secuencias de símbolos. Por ejemplo, en nuestra vida diaria representamos las
palabras mediante letras tomadas de nuestro alfabeto. Éste es simplemente uno
entre los muchos alfabetos existentes. En base a un alfabeto cualquiera que
establecemos por un acuerdo cultural, podemos representar cualquier información
compuesta de palabras y cantidades numéricas, y así el que lee entenderá al que
escribe.
Desde un punto de vista más operativo, un dato consiste en una
información que ha sido preparada, frecuentemente en un formato particular,
para un propósito específico. En el ámbito de la informática tiene tres
acepciones diferentes.
En un programa informático, los datos pueden distinguirse de las
instrucciones. Por ejemplo, en el código fuente las declaraciones de datos son
diferentes de las declaraciones ejecutables. Así, en el momento de la
ejecución, el espacio de almacenamiento se divide entre los datos -ya sean
constantes o variables- y las instrucciones. Y los archivos de datos se
distinguen de los archivos de programa.
En segundo lugar, en el contexto de un programa individual o en
el de un equipo de programas, dato puede usarse en un sentido más
restrictivo significando la entrada de información -inputs- frente a los
resultados o salida de la misma -outputs-; como es el caso de la
definición de datos o su diseño.
Por último, y de manera más general, se usa la palabra dato para
separarla cada vez más de otros aspectos de los programas modernos como la voz,
el texto o la imagen. Este uso enfoca sobre la naturaleza altamente formateada
de los datos en las aplicaciones tradicionales destinadas al proceso de datos,
como concepto opuesto a estructuras más libres como el texto en lenguaje
natural, las comunicaciones de voz y las imágenes visuales, muy típicas de
aplicaciones en entorno visual y/o multimedia.
3.2 Tipos de datosSe pueden considerar tres
tipos de datos, según el punto del proceso en el que se encuentren:
- Datos de entrada: son los que llegan al ordenador a través de
alguno de los periféricos de entrada, tales como el teclado, lectores, etc.; o
bien llegan desde unidades de almacenamiento, como son los discos. A veces este
concepto se confunde con captura de datos -actividad de introducción de datos,
casi siempre automatizada, en el que la recepción de los datos tiene una
importancia secundaria-, y con la preparación de los datos -labor que supone
preparar los datos para su entrada en el sistema, formateándolos o
codificándolos-.
- Datos intermedios: son los resultados que se van produciendo y
que no forman parte de la salida porque no se especificó de esa manera en el
diseño del programa.
- Datos de salida: Son los datos resultados del procesamiento de
los datos de entrada y de los intermedios. La forma de obtenerlos para su
análisis es por medio de un periférico de salida, como son las pantallas o las
impresoras; o bien almacenarlos.
Para poder llevar a cabo este trabajo, el ordenador deberá
contar con un intérprete, es decir, un sistema fijo y consistente que permita
pasar un número o un carácter a un valor en bytes. Una vez que el ordenador ha
utilizado ese valor para el procesamiento y ha obtenido un resultado -en
bytes-, deberá usar el intérprete de nuevo, pero de manera inversa, para pasar
esos bytes a una representación habitual para el operador. El proceso por el
cual se pasa de un lenguaje máquina a un lenguaje comprensible por un usuario,
o por otra máquina, se le conoce como traducción.
3.3 Representación de los datosEste
proceso consiste en tomar los datos tal como los maneja la máquina y, mediante
una traducción previa de los mismos, convertirlos en datos legibles por el
operador del sistema con la finalidad de plasmarlos en un medio que permita su
lectura.
El periférico más utilizado para la representación de datos es
el monitor, seguido por la impresora.
La representación concluirá, la mayor de las veces, con una
salida de naturaleza muy similar a los datos con los que se trabaja desde el
principio. Por ejemplo, si un usuario está manejando gráficos con un programa
de diseño, lo más habitual es concluir con un gráfico en la pantalla o en la
impresora. Si se trabaja con datos numéricos, o textos, o documentos, ocurre de
manera similar. Es decir, la naturaleza de los datos de entrada y de salida
suele ser la misma.
En otras ocasiones ocurrirá de manera diferente, pues un usuario
puede introducir números en un ordenador y obtener una salida textual o
gráfica.
3.4 Encriptación o protección de datosSe trata de un proceso por el cual un mensaje -tal como un texto
o un gráfico- se protege para que las personas que no estén autorizadas a
recibirlo no puedan acceder a la información que contiene. Esta actividad se
denomina criptografía, y la ciencia que la estudia y la desarrolla se denomina
criptología.
Al mensaje original se le da el nombre de mensaje plano o texto
plano, mientras que al mensaje convertido se le conoce como clave o cifra,
texto cifrado o código.
En su forma más simple, el remitente y el destinatario poseen
copias idénticas de una clave secreta, y además poseen un algoritmo o
procedimiento matemático para generar secuencias pseudoaleatorias de bits que
representan el mensaje. En una primera fase, el remitente utiliza ese algoritmo
para aplicarlo a su mensaje y concluir en el documento cifrado. El remitente,
aplicando la misma clave y el mismo algoritmo, realiza el procedimiento inverso
y recrea el documento original.
Otro sistema alternativo es el del sistema del libro de claves,
por el cual el remitente y el destinatario poseen copias de una tabla de
sustitución secreta., la cual se mecaniza por su inclusión en un sistema
informático que permite la traducción de mensajes con rapidez.
4 INFORMACIÓN Comunicación o adquisición de
conocimientos que permiten ampliar o precisar los que se poseen sobre una
materia determinada (tal como se indicó en el apartado Conceptos).
La información que se procesa puede ser superflúa o incompleta,
o poco clara, o demasiado voluminosa, o llegar demasiado tarde para ser
utilizada. Una “buena” información tiene que reunir las siguientes cualidades:
- Precisión: La información ha de ser precisa. La precisión a
exigir dependerá de la aplicación concreta que tenga la información que se está
manejando. Hay que evitar tanto defectos de precisión -“en el ordenador hay
unos cuantos programas”- como excesos de precisión -“Los cuatro programas suman
una ocupación total de tres millones cuarenta y dos mil setecientos cincuenta y
nueve bytes-.
- Exactitud: La información ha de ser exacta. La exactitud se
mide en términos de porcentaje de error, como una medida del alejamiento de la
realidad. Tambien aquí la aplicación concreta marcará en cada caso la exactitud
que ha de exigirse. No podrá obtenerse la exactitud suficiente si los datos de
partida son incorrectos o erróneos. Para el caso de una diana y unos tiros de
prueba, la precisión es lo apretado de la nube de los impactos, mientras que la
exactitud es la distancia del centro de la nube al centro de la diana.
- Oportunidad: La información ha de ser oportuna, es decir, debe
llegar al usuario en el momento adecuado para que éste pueda actuar, utilizando
dicha información, antes de que esa acción sea inútil. El tiempo disponible
para que la información llegue oportunamente variará mucho en función de la
aplicación y puede ser desde unos pocos microsegundos (en algunos controles de
proceso) a varios meses (en macroeconomía y sociología). También puede ser
inoportuno a veces llegar antes de tiempo. En algunas aplicaciones interactivas
se introducen retrasos programados en las respuestas del ordenador para evitar
que el exceso de velocidad de la máquina moleste o presione al usuario.
- Integridad: La información debe ser completa. En la mayoría de
los casos es inalcanzable una integridad del 100%; pero siempre conviene que
sea lo más completa posible. La integridad no debe provocar que la información
contenga cosas superfluas o redundantes, es decir, no hay que caer en el exceso
de información.
- Significatividad: La información debe ser clara y relevante,
de tal modo que su recepción sea fácil y rápida. Para ello, se puede acompañar
dicha información con ayudas gráficas, visuales, auditivas o de otro tipo.
5 SISTEMAS DE CODIFICACIÓN Un
alfabeto no es más que un conjunto, fijado por acuerdo cultural, de símbolos
elementales en base a los cuales se forma la información.
Es importante recalcar la arbitrariedad de cualquier alfabeto
porque si la informática ha logrado el tratamiento automático de la información
con máquinas, ha sido gracias a este concepto. No es necesario que el alfabeto
que usa una máquina en su interior sea el mismo que el que utiliza el hombre
que la ha construido y la maneja, basta con que la traducción de los símbolos
internos a los externos o viceversa se efectúe de una manera cómoda, y a ser
posible (y lo és) automáticamente por la propia máquina.
Cuando una información que originalmente venía representada en
un alfabeto A1 es transcrita a un segundo alfabeto A2, se dice que ha sido
codificada. Así, se puede definir un código como una representación biunívoca
de la información de tal forma que a cada una de las unidaes de información se
le asigna una combinación de símbolos determinada. Un ejemplo clásico es el
código Morse empleado en los inicios de la telegrafía.
La acción de codificar, es decir la codificación, se puede
definir como el proceso por el cual se transforma una información simbólica -el
alfabeto fuente- en otra distinta -el alfabeto destino-, sin pérdida de
información.
La primera fase se denomina codificación, mientras que la
segunda fase se llama decodificación. Los programas que permiten realizar cada
fase se conocen como codificador y decodificador, respectivamente, y pueden ser
funcionales en forma hardware o software. Estas herramientas suelen consistir
en un procedimiento de tipo algorítmico. Cuando existe un aparato que realiza
estas tareas se le llama codificador-decodificador o, abreviadamente, y en el
argot informático, por codec.
No confundir estos términos con los que se aplican para
referirse al lenguaje con el que se escriben algunos programas, como es el caso
del código máquina y el código fuente.
Conviene hacer un inciso y refrescar los distintos tipos de
caracteres que se pueden encontrar en los componentes lógicos de los sistemas
informáticos. Estos caracteres incluyen los alfanuméricos ingleses, los
especiales y los caracteres de operación, incluidos todos ellos en los
denominados caracteres gráficos. Por otro lado se encuentran los caracteres de
control. Desde el punto de vista de la pantalla, se distinguen unos de otros
porque los caracteres gráficos dejan algún tipo de marca impresa en la pantalla
o un espacio en blanco, mientras que los caracteres de control producen un
efecto particular.
5.1 Tipos de código Según su
morfología, se pueden dividir en dos tipos, numéricos y alfanuméricos:
- Representación numérica: como cadenas de números que tienen un
significado numérico o textual. Los más comunes son el código binario, el
hexadecimal (base 16), el octal (o bytes, base 8), y el de coma flotante. El
que cotidianamente usamos es el decimal, en el que los datos se presentan por
cadenas de cifras cuyos dígitos sólo varían entre 0 y 9.
- Representación alfanumérica: que son los que representan el
alfabeto, los números, caracteres sintácticos, y caracteres especiales como los
de control del ordenador. Los más usados son el código ASCII y el EBCDIC.