la informatica y el tratamiento de la informacion
 

 
la informatica y el tratamiento de la informacion
tratamiento de la informacion
los computadores
evolucion de los ordenadores
Imagen
EVOLUCION DE LA INFORMATICA
1. - EL TRATAMIENTO DE LA INFORMACIÓN

El concepto de informática se puede definir como el tratamiento automático de la información por medio de ordenadores.

El procesamiento de datos, se puede dividir en tres fases:

Fase de entrada: Los datos son introducidos por el usuario mediante el teclado.

Fase de proceso: El ordenador comienza su tratamiento mediante los programas. Un programa es un conjunto de ordenes que indican al ordenador lo que tiene que hacer.

Fase de salida: Los resultados se muestran al usuario.



Proceso electrónico de datos:

Los sistemas informáticos se dividen en dos partes, la parte física (hardware) y la lógica (software):

Hardware: Esta compuesto por los elementos físicos.

Software: Es el conjunto de programas que permite controlar el funcionamiento del ordenador.

2. -HISTORIA DE LA INFORMÁTICA

El primer instrumento que se utilizó para el cálculo fue el ábaco. Lo inventaron los chinos y lo utilizaron los romanos hasta el siglo IV a. C.

En 1645 Blaise Pascal construyó una máquina para sumas y restas que estaba compuesto de ruedas dentadas que al girar permitían obtener el resultado de la operación. En 1675 Von Leibniz construyó otra capaz de realizar las cuatro operaciones básicas.

El primer precedente de los ordenadores apareció 1837 cuando Charles Babbage inició los esquemas de una máquina controlada por relojes. Sin embargo nunca llegó a construirse por su complejidad.

La primera máquina capaz de hacer cálculos la construyó Herman Hollerith. Era de tipo electromecánico. Éstas se fueron perfeccionando hasta llegar a la construcción del MARK-I por Howard H. Aiken.

A partir de este momento la evolución de los ordenadores va por generaciones que se distinguen por los componentes del ordenador y la forma de realizar el tratamiento de la información.

Primera generación (1946-1955)

En este periodo los ordenadores eran construidos a base de válvulas de vacío y relés electromagnéticos.

El procesador era secuencial. Las tarjetas perforadas introducían los datos.

Al comienzo de esta época se construyó el ENIAC que utilizaba alrededor de 19.000 válvulas de vacío y 1.500 relés. Ocupaba una gran habitación y solo trabajaba con veinte números de diez dígitos.

Segunda generación (1955-1964)


Aparece el transistor sustituyendo las válvulas de vacío. Los transistores son mucho más pequeños, desprenden menos calor y se averían menos. Por ello los ordenadores han ido reduciendo su tamaño. En este periodo se construyó el UNIVAC 1100.

Tercera generación (1964-1970)


Comienzan a utilizarse los circuitos integrados, formados por miles de transistores conectados entre sí e insertados en un solo chip. Los ordenadores, que ya permiten ejecutar varios programas a la vez, reducen aún más su tamaño y aumenta su velocidad de cálculo.

Comienza a estandarizarse los programas para crear software, como el Fortran, el Basic y el Pascal.

Cuarta generación (1970-1980)


Aparecen nuevos circuitos con mayor nivel de integración, por lo que los ordenadores reducen aún más su tamaño.

En este periodo la empresa Intel desarrolla su primer microprocesador. Aparecen nuevos entornos y lenguajes de programación como el C y el Prolog.

Quinta generación ( a partir de 1981)


En 1981 IBM construyó el primer ordenador personal y revolucionó el mercado informático.

La utilización de circuitos con mayor nivel de integración, la bajada de precios y el continuo aumento de prestaciones y servicios generalizan la difusión del ordenador.

El uso masivo de ordenadores genera la necesidad de comunicarlos, provocando la aparición de las redes como Internet.

3. -LA REPRESENTACIÓN DE LA INFORMACIÓN

La información que maneja el ser humano se representa por una combinación de números que forman cantidades y se emplea el sistema métrico decimal, y una combinación de letras que forman palabras y se emplea el abecedario español.

Sin embargo el ordenador puede representar solo dos estados (encendido y apagado). Es como un interruptor. El sistema binario es el que emplean todos los ordenadores, pues encendido se representa con 1 y apagado con 0.

Representación de cantidades

El ser humano emplea un sistema de numeración llamado decimal.

La regla principal indica que toda cantidad se puede representar por el desarrollo de potencias sucesivas que tendrán como base el número total de dígitos usado por el sistema que se esté utilizando y como exponente el lugar físico que ocupe cada dígito menos uno empezando por la derecha.

Desarrollo polinómico de una cantidad es la suma de los productos de cada uno de los dígitos con la potencia que les corresponde ofrecerá el valor real de la base de numeración. Por ejemplo, el desarrollo polinómico en base 10 del número 634 sería:

634(10 = 6 x 102 + 3 x 101 + 4 x 100 = 600 + 30 + 4

El ordenador utiliza el sistema binario. Las cantidades se representarán como combinaciones de ceros y unos. Para conocer la cantidad en base decimal que representa una combinación de ceros y unos bastará con realizar su desarrollo polinómico al igual que en el ejemplo anterior. Por ejemplo, para conocer qué cantidad representará 10101, sería:

10101(2 = 1 x 24 + 0 x 23 + 1 x 22 + 0 x 21 + 1 x 20 =

= 16 + 0 + 4 + 0 + 1 =21(10

El método para pasar del sistema binario al decimal es muy fácil. ¿Será viceversa también fácil? El método también es sencillo.

Para pasar una cantidad del sistema decimal al binario se realizan divisiones sucesivas por dos. Primero se toma la cantidad decimal y se divide por dos, después se toma el cociente de esa división y se vuelve a dividir por dos, tomamos de nuevo el cociente de la última división y lo dividimos por dos, y así sucesivamente hasta que el cociente ya no sea divisible entre dos. El número binario estará formado por el último cociente y los restos de las sucesivas divisiones empezando por el de la última, hasta llegar al resto de la primera división.

El ordenador trabaja internamente en binario, así si el usuario escribe una cantidad por teclado, esta cantidad es convertida en binario para que el ordenador trabaje. Por el contrario cuando el ordenador muestra un resultado al usuario, el número binario pasa a decimal y después se muestra en el monitor o se imprime.


Representación de palabras

Cuando leemos un texto, se puede apreciar que es articulado. Sin embargo, también se puede observar que las letras pueden mayúsculas o minúsculas y que utilizan espacios en blanco, signos de puntuación, etc. Pero, ¿cómo se representan todos estos símbolos con sólo unos ceros? La solución es la codificación.

El ordenador solo utiliza el sistema binario. Bit es la unidad mínima de información que se pude representar (0 ó 1). Con un solo bit solo se pueden representar dos estados, 0 y 1. Sin embargo, con 2 bits se representarán 4 estados, y así sucesivamente. El número de estados posibles se corresponde con el número de bits utilizados

(N.º de estados = 2 número de bits)

Si utilizamos 7 bits, se podría representar 27 = 128 estados, se queda pequeño. Si utilizamos 8 bits, se podrían representar 28 = 256 estados, que permiten representar todos los símbolos. Luego, ésta es la solución. Para representar un carácter, se necesitan 8 bits y a este grupo de 8 bits se le denomina byte. Luego un carácter se puede representar con un byte.

Ahora solo queda asignar a cada carácter una combinación de ocho ceros y unos que la represente. Es el utilizado por todos los ordenadores personales, denominado Código ASCII (American Standar Code for Information Interchange o Código Estándar Americano para el Intercambio de Información.

Cuando el usuario teclea una letra, ésta se transforma en el código binario correspondiente a ese carácter ASCII y cuando debe mostrar una letra, transforma el código binario al correspondiente carácter antes de sacarlo por el monitor o por la impresora.


4. - ESCALA DE MAGNITUDES

En informática, la longitud más pequeña empleada es el bit, que hemos definido como la unidad mínima de información. Sin embargo, la más utilizada es el byte, también llamado octeto, que está compuesto por ocho bits y nos permite representar un carácter. Hablar de un byte en informática, es lo mismo que hablar de un gramo en peso o de un metro en longitud. Cuando alguien se pesa no dice que pesa cincuenta mil gramos, sino cincuenta kilos, es decir, se ha establecido una escala de magnitudes de forma que sea más fácil manejar grandes cantidades. Nadie habla de miles de metros, sino de kilómetros. Lo mismo ocurre en informática. Para trabajar con grandes cantidades aparecen nuevas magnitudes que nos facilita el trabajo. Las más utilizadas son el kilobyte, el Megabyte y el Gigabyte.

+
Escríbeme
Me interesa tu opinión