lunes, 8 de noviembre de 2010
lunes, 25 de octubre de 2010
AUTOS
AUTOS DE CARRERAS
Aston Martin Racing ha revelado la primera imagen de su nuevo auto de carreras GT2. Conocido como el Vantage GT2, el nuevo auto está basado en el Aston Martin Vantage de uso regular. El nuevo auto hace que Aston Martin sea el único fabricante en ofrecer autos en cada categoría de carreras GT: GT1-DBR9, GT2-Vantage GT2, GT3-DBRS9, y GT4-Vantage N24.
Tags Technorati: Autos Conceptos Prototipos Nuevos Modelos Aston Martin Vantage GT2 Aston Martin Vantage GT2
Tags Blogalaxia: Autos Conceptos Prototipos Nuevos Modelos Aston Martin Vantage GT2 Aston Martin Vantage GT2
jueves, 7 de octubre de 2010
PLANISFERIO TERRESTRE
PLANISFERIO TERRESTRE
El satélite ambiental Envisat de la ESA desarrolló un retrato detallado de la superficie de la Tierra. A través del proyecto GLOBCOVER se desarrolló la creación de un mapa global de la cobertura terrestre con una resolución tres veces superior a la de cualquier otro mapa por satélite hasta aquel momento. Utilizó reflectores radar con antenas de ancho sintéticas, capturando con sus sensores la radiación reflejada.[8]
La NASA completó un nuevo mapa tridimensional, que es la topografía más precisa del planeta, elaborada durante cuatro años con los datos transmitidos por el transbordador espacial Endeavour. Los datos analizados corresponden al 80% de la masa terrestre. Cubre los territorios de Australia y Nueva Zelanda con detalles sin precedentes. También incluye más de mil islas de la Polinesia y la Melanesia en el Pacífico sur, así como islas del Índico y el Atlántico. Muchas de esas islas apenas se levantan unos metros sobre el nivel del mar y son muy vulnerables a los efectos de las marejadas y tormentas, por lo que su conocimiento ayudará a evitar catástrofes; los datos proporcionados por la misión del Endeavour tendrán una amplia variedad de usos, como la exploración virtual del planeta.[9
MOVIMIENTOS DE LA TIERRA
MOVIMIENTOS DE LA TIERRA
La Tierra realiza dos movimientos principales en el espacio, denominados, traslación y rotación; y dos movimientos secundarios, denominados precesión y nutación. Debido al movimiento de traslación y a la oblicuidad de la eclíptica, se suceden las cuatro estaciones anuales. Dichas estaciones están delimitadas por los instantes en que la Tierra pasa por los equinoccios de otoño y primavera y por los solsticios de verano e invierno.
Actualmente la Tierra completa una órbita alrededor del Sol cada vez que realiza 365,26 giros sobre su eje. Este lapso de tiempo se denomina un año sideral, el cual es igual a 365,26 días solares.[nota 2] El eje de rotación de la Tierra se encuentra inclinado 23,4° con respecto a la perpendicular a su plano orbital,[7] lo que produce las variaciones estacionales en la superficie del planeta con un período de un año tropical (365,24 días solares).
ROTACION DE LA TIERRA
ROTACION DE LA TIERRA
La Tierra en movimiento de rotación. En esta imagen, la Tierra da una vuelta completa en pocos segundos (25.000 veces más rápido), pero en realidad la vuelta completa La Tierra es el único planeta en nuestro sistema solar que tiene una superficie líquida.[nota 1] El agua cubre un 71% de la superficie de la Tierra (97% de ella es agua de mar y 3% agua dulce), formando cinco océanos y seis continentes.
La Tierra está realmente a la distancia del Sol adecuada para tener agua líquida en su superficie. No obstante, sin el efecto invernadero, el agua en la Tierra se congelaría. Al inicio de la existencia del Sistema Solar el Sol emitía menos radiación que en la actualidad, pero los océanos no se congelaron porque la atmósfera de primera generación de la Tierra poseía mucho más CO2, y por tanto el efecto invernadero era mayor.
En otros planetas, como Venus, el agua desapareció debido a que la radiación solar ultravioleta rompe la molécula de agua y el ion hidrógeno, que es ligero, escapa de la atmósfera. Este efecto es lento, pero inexorable. Ésta es una hipótesis que explica por qué Venus no tiene agua.[cita requerida] En la atmósfera de la Tierra, una tenue capa de ozono en la estratosfera absorbe la mayoría de esta radiación ultravioleta, reduciendo el efecto. El ozono protege a la biosfera del pernicioso efecto de la radiación ultravioleta. La magnetosfera también actúa como un escudo que protege al planeta del viento solar.
La masa total de la hidrosfera es aproximadamente 1,4 × 1021 kg.
dura 24 horas.
La Tierra está realmente a la distancia del Sol adecuada para tener agua líquida en su superficie. No obstante, sin el efecto invernadero, el agua en la Tierra se congelaría. Al inicio de la existencia del Sistema Solar el Sol emitía menos radiación que en la actualidad, pero los océanos no se congelaron porque la atmósfera de primera generación de la Tierra poseía mucho más CO2, y por tanto el efecto invernadero era mayor.
En otros planetas, como Venus, el agua desapareció debido a que la radiación solar ultravioleta rompe la molécula de agua y el ion hidrógeno, que es ligero, escapa de la atmósfera. Este efecto es lento, pero inexorable. Ésta es una hipótesis que explica por qué Venus no tiene agua.[cita requerida] En la atmósfera de la Tierra, una tenue capa de ozono en la estratosfera absorbe la mayoría de esta radiación ultravioleta, reduciendo el efecto. El ozono protege a la biosfera del pernicioso efecto de la radiación ultravioleta. La magnetosfera también actúa como un escudo que protege al planeta del viento solar.
La masa total de la hidrosfera es aproximadamente 1,4 × 1021 kg.
dura 24 horas.
LA TIERRA
LA TIERRA
A veces se la conoce genéricamente por la especie humana como el Mundo o el Planeta Azul.
Las propiedades físicas de la Tierra, combinadas con su órbita e historia geológica, son las que han permitido que perdure la vida hasta nuestros días. Es el único planeta del universo en el que hasta ahora el ser humano conoce la existencia de vida; millones de especies moran en él. La Tierra se formó al mismo tiempo que el Sol y el resto del Sistema Solar, hace 4.567 millones de años,[2] y la vida hizo su aparición en su superficie luego de unos 1.000 millones de años. Desde entonces, la vida ha alterado de manera significativa al planeta.[3]
Sobre la corteza terrestre existen diversos paisajes naturales y artificiales donde podemos encontrar montañas, valles, ríos, ciudades, etc. Aquí habita diversidad de organismos como son los árboles, el ser humano y muchos otros animales. Una considerable parte de la corteza está compuesta de restos de organismos oceánicos primitivos que constituyen la roca caliza. La temperatura media de la superficie terrestre es de unos 15 °C, aunque ésta -entre otras circunstancias- son distintas en diferentes partes del planeta; pueden cambiar.
La tierra posee grandes océanos que ocupan mucha más superficie que la tierra superficial. En estos inmensos cuerpos de agua habitan considerable cantidad de organismos y es en donde se originó toda la vida; parte de la cual migró a la tierra firme posteriormente. En los océanos se formó parte de la tierra firme y submarina.
La parte menos densa que compone la Tierra es su atmósfera, la cual está compuesta por una solución de gases llamada aire. Hasta cierta altura, es lo suficientemente densa como para permitir que algunos animales vuelen en ella. Esta atmósfera es rica en oxígeno, gracias en gran parte a la vida. La atmósfera, junto al campo magnético, es capaz de resguardar la diversidad de vida superficial de amenazas naturales extra-terrestres, como por ejemplo, de rayos ultravioletas, rayos cósmicos, meteoritos o viento solar.
Posee un único satélite natural llamado Luna, en relación con su planeta, el más grande del sistema solar. Es mucho menos denso que la Tierra, aunque provino de ella a causa de un impacto de asteroide que expulsó al espacio el material liviano que formaría la luna, mientras que el material más denso regresó a la tierra.
Se especula que la Tierra podrá seguir alojando vida durante otros 1.500 millones de años, ya que se prevé que la luminosidad creciente del Sol causará la extinción de la biósfera para esa época.[4]
miércoles, 6 de octubre de 2010
CAPAS DEL MODELO OSI
Nivel Físico.- Define las normas y protocolos usados en la conexión. También define los cables y los conectores.
Es decir es el encargado de formular las especificaciones de orden mecánico, eléctrico, funcional y procedimental que deben satisfacer los elementos físicos del enlace de datos.
Mecánicas.- Se especifican detalles como conexiones físicas entre equipos, indicando la configuración de los conectores, tanto desde el punto de vista físico como lógico.
Eléctricas.- Se especifican los niveles de señales para el envío de los bits. Además se indican características eléctricas de protección contra interferencias.
Funcionales.- Se especifica los métodos para la activación, mantenimiento y desactivación de los circuitos fíisicos.
Procedimentales.- Está integrado por el secuenciamiento de las operaciones que realizará todo el conjunto de elementos que intervienen en la transmisión física de datos.
Nivel de Enlace.- Gestiona las entradas/salidas como interfaz de la red.
Este nivel lo integra la parte lógica de la comunicación que está compuesta por el conjunto de procedimientos para el establecimiento, mantenimiento y desconexión de circuitos para el envío de bloques de información. Controla la correcta transferencia de datos y gestiona los métodos necesarios para la detección y corrección de errores
Entre los distintos tipos de enlace tenemos: punto a punto, multipunto y enlace en bucle..
Algunos protocolos de enlace son: protocolos orientados a caracter, protocolos orientados a bit, protocolos HDLC, entre otros.
Nivel de Red.- Enruta los paquetes dentro de la red. Es el encargado de transportar los paquetes de datos y se compone de la información del usuario que proviene de los niveles superiores, para el establecimiento y control de la información.
Este nivel controla la transmisión a través de los nodos de la red de comunicación, indicando el camino correcto que dichos paquetes deben tomar desde el punto de partida hasta su llegada a su respectivo destino.
Para conseguir las transmisión de paquetes a través de los sucesivos nodos de una red se utilizan dos modelos de protocolos: datagrama y de circuito virtual.
Nivel de Transporte.- Comprueba la integridad de datos, ordena los paquetes, construye cabeceras de los paquetes, entre otras cosas.
Realiza la transmisión de datos de forma segura y económica, desde el equipo emisor al equipo receptor.
Las unidades de datos del protocolo de transporte (TPDU) son los elementos de información intercambiados cuando se mantiene una conexión.
El TPDU está compuesto de una cabecera y datos. La cabecera contiene información dividida en los siguientes campos: LI longitud, parte fija que indica el tipo de TPDU , información del destino y parte variable que contiene parámetros( No siempre existe).
Datos.- Contiene la información del usuario a transportar.
Nivel de Sesión.- Gestiona la conexión entre los niveles más bajos y el usuario, es el interfaz de usuario de la red.
Este nivel presenta un modo para el establecimiento de conexiones denominado sesiones, para la transferencia de datos de forma ordenada y para la liberación de la conexión. Permite la fijación de puntos de sincronización en el diálogo para poder repetir éste desde algún punto, la interrupción del diálogo con posibilidades de volverlo a iniciar y el uso de testigos (tokens) para dar turno a la transferencia de datos.
Nivel de Presentación.- Ofrece al usuario las posibilidades tales como transmisión de archivos y ejecución de programas.
Controla los problemas relacionados con la representación de los datos que se pretendan transmitir.
Esta capa se encarga de la preservación del significado de la información transportada.
Cada ordenador puede tener su propia forma de representación interna de datos, por esto es necesario tener acuerdos y conversiones para poder asegurar el entendimiento entre ordenadores diferentes.
Nivel de Aplicación.- Las aplicaciones de software de red se ejecutan en este nivel.
La capa de aplicación contiene los programas del usuario que hacen el trabajo real para el que fueron adquiridos los ordenadores.
Controla y coordina las funciones a realizar por los programas de usuario, conocidos con el nombre de aplicaciones.
Cada aplicación puede tener sus propias y particulares necesidades de comunicación, existiendo algunas cuyo objetivo es el de la comunicación a distancia. Estas últimas aplicaciones especializadas en comunicaciones son las de transferencia de archivos, correo electrónico y los terminales virtuales, entre otros.
En resumen los objetivos básicos de este nivel son:
1.- Permitir el funcionamiento de aplicaciones por parte de los usuarios, dando las facilidades necesarias para efectuar operaciones de comunicación entre procesos.
2.- Ofrecer ciertas aplicaciones especializadas en procesos típicos de comunicación.
Todos estos niveles son transparentes para el usuario. Los administradores de la red pueden controlar varios aspectos de las red a los distintos niveles.
Es decir es el encargado de formular las especificaciones de orden mecánico, eléctrico, funcional y procedimental que deben satisfacer los elementos físicos del enlace de datos.
Mecánicas.- Se especifican detalles como conexiones físicas entre equipos, indicando la configuración de los conectores, tanto desde el punto de vista físico como lógico.
Eléctricas.- Se especifican los niveles de señales para el envío de los bits. Además se indican características eléctricas de protección contra interferencias.
Funcionales.- Se especifica los métodos para la activación, mantenimiento y desactivación de los circuitos fíisicos.
Procedimentales.- Está integrado por el secuenciamiento de las operaciones que realizará todo el conjunto de elementos que intervienen en la transmisión física de datos.
Nivel de Enlace.- Gestiona las entradas/salidas como interfaz de la red.
Este nivel lo integra la parte lógica de la comunicación que está compuesta por el conjunto de procedimientos para el establecimiento, mantenimiento y desconexión de circuitos para el envío de bloques de información. Controla la correcta transferencia de datos y gestiona los métodos necesarios para la detección y corrección de errores
Entre los distintos tipos de enlace tenemos: punto a punto, multipunto y enlace en bucle..
Algunos protocolos de enlace son: protocolos orientados a caracter, protocolos orientados a bit, protocolos HDLC, entre otros.
Nivel de Red.- Enruta los paquetes dentro de la red. Es el encargado de transportar los paquetes de datos y se compone de la información del usuario que proviene de los niveles superiores, para el establecimiento y control de la información.
Este nivel controla la transmisión a través de los nodos de la red de comunicación, indicando el camino correcto que dichos paquetes deben tomar desde el punto de partida hasta su llegada a su respectivo destino.
Para conseguir las transmisión de paquetes a través de los sucesivos nodos de una red se utilizan dos modelos de protocolos: datagrama y de circuito virtual.
Nivel de Transporte.- Comprueba la integridad de datos, ordena los paquetes, construye cabeceras de los paquetes, entre otras cosas.
Realiza la transmisión de datos de forma segura y económica, desde el equipo emisor al equipo receptor.
Las unidades de datos del protocolo de transporte (TPDU) son los elementos de información intercambiados cuando se mantiene una conexión.
El TPDU está compuesto de una cabecera y datos. La cabecera contiene información dividida en los siguientes campos: LI longitud, parte fija que indica el tipo de TPDU , información del destino y parte variable que contiene parámetros( No siempre existe).
Datos.- Contiene la información del usuario a transportar.
Nivel de Sesión.- Gestiona la conexión entre los niveles más bajos y el usuario, es el interfaz de usuario de la red.
Este nivel presenta un modo para el establecimiento de conexiones denominado sesiones, para la transferencia de datos de forma ordenada y para la liberación de la conexión. Permite la fijación de puntos de sincronización en el diálogo para poder repetir éste desde algún punto, la interrupción del diálogo con posibilidades de volverlo a iniciar y el uso de testigos (tokens) para dar turno a la transferencia de datos.
Nivel de Presentación.- Ofrece al usuario las posibilidades tales como transmisión de archivos y ejecución de programas.
Controla los problemas relacionados con la representación de los datos que se pretendan transmitir.
Esta capa se encarga de la preservación del significado de la información transportada.
Cada ordenador puede tener su propia forma de representación interna de datos, por esto es necesario tener acuerdos y conversiones para poder asegurar el entendimiento entre ordenadores diferentes.
Nivel de Aplicación.- Las aplicaciones de software de red se ejecutan en este nivel.
La capa de aplicación contiene los programas del usuario que hacen el trabajo real para el que fueron adquiridos los ordenadores.
Controla y coordina las funciones a realizar por los programas de usuario, conocidos con el nombre de aplicaciones.
Cada aplicación puede tener sus propias y particulares necesidades de comunicación, existiendo algunas cuyo objetivo es el de la comunicación a distancia. Estas últimas aplicaciones especializadas en comunicaciones son las de transferencia de archivos, correo electrónico y los terminales virtuales, entre otros.
En resumen los objetivos básicos de este nivel son:
1.- Permitir el funcionamiento de aplicaciones por parte de los usuarios, dando las facilidades necesarias para efectuar operaciones de comunicación entre procesos.
2.- Ofrecer ciertas aplicaciones especializadas en procesos típicos de comunicación.
Todos estos niveles son transparentes para el usuario. Los administradores de la red pueden controlar varios aspectos de las red a los distintos niveles.
ESTANDARES DE COMUNICACION
ESTANDARES DE COMUNICACION
Una red puede ser un sistema abierto que ofrece a otros fabricantes sus especificaciones e incluye ligaduras de programación que permiten que los fabricantes puedan crear con facilidad aplicaciones complementarias.
En los últimos años , han tomado forma varios estándares de redes, entre ellos el Modelo de Interconexión de Sistemas Abiertos OSI (Open System Interconection). Este modelo define una red por niveles, comenzando por el nivel físico más básico hasta el nivel más alto en el que se ejecutan las aplicaciones
LA DIFERENCIA ENTRE SISTEMAS DISTRIBUIDOS Y SISTEMAS CENTRALIZADOS
SISTEMAS DISTRIBUIDOS Y CENTRALIZADOS
En los entornos con grandes computadoras y minicomputadoras, el procesamiento y la memoria se encuentran centralizados. Hay varias razones para ello, incluyendo el costo, la seguridad y la gestión.
La computadora central se convierte en el núcleo de la organización de proceso de datos, habiendo un equipo de profesionales que tienen como única tarea el trabajar y administrar el sistema.
Los terminales conectados al ordenador central permiten que otros usuarios puedan compartir las posibilidades de cálculo y la memoria de las computadoras centrales.
Este tipo de proceso centralizado se diferencia del sistema de proceso distribuído utilizado por las LAN.
En un sistema de proceso distribuído, la mayor parte de los procesos se lleva a cabo en la memoria individual de las computadoras personales, a las que denomina estaciones de trabajo.
El servidor de archivos o sistema central se convierte en un lugar para almacenar los archivos y para gestionar la red, además de ser el lugar al que se conectan las impresoras y otros recursos compartidos.
Terminal Terminal
Mainframe
Servidor
La computadora central se convierte en el núcleo de la organización de proceso de datos, habiendo un equipo de profesionales que tienen como única tarea el trabajar y administrar el sistema.
Los terminales conectados al ordenador central permiten que otros usuarios puedan compartir las posibilidades de cálculo y la memoria de las computadoras centrales.
Este tipo de proceso centralizado se diferencia del sistema de proceso distribuído utilizado por las LAN.
En un sistema de proceso distribuído, la mayor parte de los procesos se lleva a cabo en la memoria individual de las computadoras personales, a las que denomina estaciones de trabajo.
El servidor de archivos o sistema central se convierte en un lugar para almacenar los archivos y para gestionar la red, además de ser el lugar al que se conectan las impresoras y otros recursos compartidos.
Terminal Terminal
Mainframe
Servidor
En los entornos con grandes computadoras y minicomputadoras, el procesamiento y la memoria se encuentran centralizados. Hay varias razones para ello, incluyendo el costo, la seguridad y la gestión.
La computadora central se convierte en el núcleo de la organización de proceso de datos, habiendo un equipo de profesionales que tienen como única tarea el trabajar y administrar el sistema.
Los terminales conectados al ordenador central permiten que otros usuarios puedan compartir las posibilidades de cálculo y la memoria de las computadoras centrales.
Este tipo de proceso centralizado se diferencia del sistema de proceso distribuído utilizado por las LAN.
En un sistema de proceso distribuído, la mayor parte de los procesos se lleva a cabo en la memoria individual de las computadoras personales, a las que denomina estaciones de trabajo.
El servidor de archivos o sistema central se convierte en un lugar para almacenar los archivos y para gestionar la red, además de ser el lugar al que se conectan las impresoras y otros recursos compartidos.
Terminal Terminal
Mainframe
Servidor
OBJETIVOS DE LAS REDES
LAS REDES DE LOS COMPUTADORES
Son muchas las organizaciones que cuentan con un número considerable de ordenadores en operación y con frecuencia alejados unos de otros. Por ejemplo, una compañía con varias fábricas puede tener un ordenador en cada una de ellas para mantener un seguimiento de inventarios, observar la productividad y llevar la nómina local.
Inicialmente cada uno de estos ordenadores puede haber estado trabajando en forma aislada de las demás pero, en algún momento, la administración puede decidir interconectarlos para tener así la capacidad de extraer y correlacionar información referente a toda la compañía.
Es decir el objetivo básico es compartir recursos, es decir hacer que todos los programas, datos y equipos estén disponibles para cualquiera de la red que lo solicite, sin importar la localización del recurso y del usuario.
Un segundo objetivo es proporcionar una alta fiabilidad, al contar con fuentes alternativas de suministro.
Todos los archivos podrìan duplicarse en dos o tres máquinas, de tal manera que si una no se encuentra disponible, podría utilizarse algunas de las copias.
La presencia de múltiples CPU significa que si una de ellas deja de funcionar, las otras pueden ser capaces de encargarse de su trabajo, aunque se tenga un rendimiento global menor.
Otro objetivo es el ahorro económico. Las grandes máquinas tienen una rapidez mucho mayor.
Una red de ordenadores puede proporcionar un poderoso medio de comunicacion entre personas que se encuentran muy alejadas entre sí.
Con el empleo de una red es relativamente fácil para dos personas, que viven en lugares separados, escribir un informe juntos.
REDES DE COMPUTADORAS
REDES DE COMPUTADORES
Se entiende por red al conjunto interconectado de ordenadores autómomos.
Se dice que dos ordenadores están interconectados, si éstos son capaces de intercambiar información. La conexión no necesita hacerse a través de un hilo de cobre , también puede hacerse mediante el uso de láser, microondas y satélites de comunicación.
SEXTA GENERACION
SEXTA GENERACION
Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos.
QUINTA GENERACION
QUINTA GENERACION
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
CUARTA GENERACION
CUARTA GENERACION
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)
En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.
TERCERA GENERACION
TERCERA GENERACION
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.
SEGUNDA GENERACION
SEGUNDA GENERACION
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.
PRIMERA GENERACION
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.
GENERACION DE LOS COMPUTADORES
La primera generación de computadoras abarca desde el año 1945 hasta el año 1958, época en que la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina.
Características:
- Estaban construidas con electrónica de válvulas
- Se programaban en lenguaje de máquina
- grandes y obsoletas
Suscribirse a:
Comentarios (Atom)

















