domingo, 6 de marzo de 2011

Logo

TIPOS DE CINTAS Y TARJETAS PERFORADAS

                                                   TIPOS DE CINTA PERFORADA
La cinta perforada es un método obsoleto de almacenamiento de datos, que consiste en una larga tira de papel en la que se realizan agujeros para almacenar los datos. Fue muy empleada durante gran parte del siglo XX para comunicaciones con teletipos, y más tarde como un medio de almacenamiento de datos para miniordenadores y máquinas herramienta tipo CNC.
Formatos de cinta
Los datos estaban representados por la presencia o ausencia de un agujero en la cinta en una posición determinada. Las cintas originales tenían cinco filas de agujeros para los datos. Cintas posteriores tuvieron 6, 7 y 8 filas. Una fila extra de taladros consecutivos más pequenos servía para arrastrar la cinta, generalmente con una rueda dentada. El texto se codificaba de varias maneras. El estándar de codificación de caracteres más primitivo fue el de Baudot, que se remonta al siglo XIX y tenía 5 agujeros. Estándares posteriores, tales como el Fieldata y el Flexowriter, tenían 6 agujeros. A comienzos de la década de 1960, la Asociación Americana de Estándares (American Standards Association, ASA) llevó a cabo un proyecto para desarrollar un código universal para el procesamiento de datos, que sería conocido como ASCII. Este código de 7 niveles fue adoptado por algunos fabricantes de teletipos, como AT&T (Teletype). Otros, como Telex, siguieron empleando el Baudot.
Cinta troquelada
Una variación de la cinta perforada fue el dispositivo llamado Impresora Troqueladora (Chadless Printing Reperforator). Esta máquina era capaz de marcar las señales de teletipo recibidas en una cinta y de imprimir el mensaje sobre ella al mismo tiempo, usando un mecanismo de impresión similar al de una impresora de páginas corriente. El marcado, en lugar de perforar completamente los habituales agujeros redondos, realizaba unos cortes con forma de pequeñas U en el papel, de modo que no se producían lentejuelas; el "agujero" seguía estando relleno con una pequeña trampilla de papel. Al no estar completamente perforado el agujero, la impresión en el papel permanecía intacto y legible. Esto permitía a los operadores leer la cinta sin necesidad de descifrar los agujeros, lo que facilitaba la retransmisión del mensaje hacia otras estaciones de la red. Naturalmente, tampoco tenía una "caja para lentejuelas" que hubiera que vaciar de tanto en tanto. La única desventaja de este mecanismo era que la cinta troquelada, una vez marcada, no se recogía correctamente, debido que a las aletitas sobresalientes del papel solían engancharse en la siguiente vuelta de la cinta, y por eso no se podía enrollar en un solo plano. Otra desventaja, como se vería con el tiempo, era que no había un modo fiable de leer las cintas troqueladas por los medios ópticos empleados por los sistemas de lectura de alta velocidad posteriores. De todas maneras, los lectores mecánicos empleados en los equipos de velocidad más estándar no tenían problemas con las cintas troqueladas, ya que detectaban los agujeros mediante pernos con resorte, que fácilmente apartaban las aletitas de papel del camino.

Formatos de tarjetas perforadas de Hollerith
La tarjeta perforada patentada por Herman Hollerith el 8 de junio de 1887 y usada en las máquinas tabuladoras mecánicas en el censo de 1890 de Estados Unidos de América, era un trozo de cartulina de alrededor de 90mm por 215mm, con orificios redondos y 24 columnas. Esta tarjeta puede ser vista en el sitio de Historia de la Computación de la Universidad de Columbia.
Esta tarjeta tenía el mismo tamaño que un dólar estadounidense en aquella época
  • Las razones sugeridas para hacerla de este tamaño eran las siguientes:
  • Hollerit sintió que la gente las trataría con respeto si las hacía de ese tamaño.
  • Las cajas de este tamaño ya estaban disponibles a precios baratos, diseñadas para los bancos para guardar el dinero.
  • El equipamiento para manejar estos tamaños de papel estaban disponibles para la Oficina del Censo de los Estados Unidos como préstamo del Departamento del Tesoro de los Estados Unidos
Pero no hay evidencia real que pruebe que alguna de estas sugerencias sea correcta.
Tarjeta perforada de 90-caracteres de UNIVAC

El formato de la tarjeta perforada de Remington-Rand UNIVAC tenía hoyos redondos. Había 45 columnas con 12 lugares para perforar cada una, y dos caracteres para cada columna. Para el codificado de tarjeta de 90 caracteres, vea Winter, Dik T.. «90-column Punched Card Code». Consultado el 20 de Octubre de 2006.
Tarjeta perforada de formato de 80 columnas de IBM
Este formato de tarjeta de IBM, diseñado en 1928,[4] tenía hoyos rectangulares, 80 columnas con 12 lugares de perforación cada una, y un carácter para cada columna. El tamaño de la tarjeta era de exactamente 187.325mm por 82.55mm. Las tarjetas eran hechas de material liso, de 0.179mm de ancho. Hay alrededor de 143 tarjetas por cada pulgada de espesor. En 1964, IBM cambió de esquinas cuadradas a redondeadas.
Las 10 posiciones inferiores representaban (de arriba a abajo) los dígitos del 0 al 9. Las dos posiciones superiores de una columna eran llamadas perforación de zona 12 (superior), y perforación de zona 11. Originalmente sólo se codificaba información numérica, con una perforación por columna, indicando el dígito. Podían ser agregados signos a un campo sobreperforando el bit menos significativo con una perforación de zona: 12 para suma y 11 para resta. Las perforaciones de zona también tenían otros usos en el procesamiento, como indicar un registro maestro.
Más tarde fueron introducidos códigos para letras mayúsculas y caracteres especiales. Una columna con 2 perforaciones (zona [12,11,0] + dígito [1-9]) era una letra; 3 perforaciones (zona [12,11,0] + dígito [2-4] + 8) era un carácter especial. La introducción del EBCDIC en 1964 permitió columnas con hasta 6 perforaciones (zonas [12,11,0,8,9] + dígito [1-7]). IBM y otros fabricantes usaron codificaciones muy diferentes para caracteres de tarjetas de 80 columnas.

Tarjeta perforada binaria.
Para algunas aplicaciones de computadora, fueron usados formatos de números binarios, donde cada hoyo representaba un único dígito binario (bit), cada columna (o fila) era tratada como un campo de un bit simple, y cualquier combinación de hoyos estaba permitida. Por ejemplo, las computadoras científicas de la serie 704/709/7090/7094 de IBM, trataban cada fila como dos palabras de 36bit, usualmente en columnas de 1-72, ignorando las últimas 8 columnas (las 72 columnas eran seleccionadas usando un panel de control). Otras computadoras, como la IBM 1130 o la System/360, usaban todas las columnas. Para la diversión del operador o un visitante, en modo binario, las tarjetas podían ser perforadas en todas sus posiciones perforables posibles a la vez, estas son llamadas tarjetas de encaje.
El formato de tarjeta de 80 columnas dominó la industria, haciéndose conocidas sólo bajo el nombre de tarjetas IBM, tanto que hasta otras industrias debieron hacer tarjetas y equipamiento para procesarlas.
Tarjetas mark sense
Las tarjetas Mark sense (electrográficas), desarrolladas por Reynold B. Johnson en IBM, tenían óvalos impresos que podían ser marcados con un lápiz electrográfico especial. Las tarjetas podían ser perforadas típicamente con alguna información inicial, como el nombre y lugar de un objeto de inventario. La información a ser adherida, como la cantidad de unidades del objeto en mstock, podía ser marcada en los óvalos. Las perforaciones de tarjetas con una opción para detectar tarjetas mark sense podían entonces perforar la información correspondiente en la tarjeta.
Tarjetas de apertura
Las tarjetas de apertura tienen un hoyo rebanado en el lado derecho de tarjeta perforada. Un trozo de micropelícula de 35 mm que contiene una imagen de microforma es montado en el hoyo. Las tarjetas de apertura son usadas para diagramas de ingeniería de cualquier disciplina de la ingeniería. La información sobre el diagrama, por ejemplo el número de dibujo, típicamente es perforado e impreso en el resto de la tarjeta. Las tarjetas de apertura tienen algunas ventajas sobre los sistemas digitales para archivar información.
Tarjeta perforada IBM de 51 columnas
Este formato de tarjeta perforada IBM fue una tarjeta de 80 columnas acortada. El acortamiento a veces se realizaba cortando y quitando, en el momento de la perforación, un trozo de una tarjeta de 80 columnas. Estas tarjetas fueron usadas en algunas aplicaciones de venta minorista e inventarios.

Perforadora portátil de IBM
Según los archivos de IBM: La División de Suministros de IBM introdujo la Perforadora Portátil (Port-A-Punch) en 1958 como un rápido y preciso medio para perforar hoyos en tarjetas perforadas IBM especialmente calificadas. Diseñada para llevar en un bolsillo, la perforadora portátil hizo posible crear documentos de tarjetas perforadas en cualquier lugar. El producto fue concebido para operaciones de registro "en el foco" -- tales como inventarios físicos, tickets de trabajo y encuestas estadísticas -- ya que eliminaba la necesidad de escrituras previas o escritura de documentos fuente. Desafortunadamente, los hoyos resultantes quedaban "peludos" y algunas veces causaban problemas con el equipamiento utilizado para leer las tarjetas.



ANTECEDENTES DE LAS IMPRESORAS


ANTECEDENTES DE LA IMPRESORA
Como indica su nombre, la impresora es el periférico que el ordenador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.
Aunque en nada se parecen las modernas impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos totalmente el papel por una fría pantalla de ordenador; Gutenberg estaría orgulloso, supongo.
Velocidad
  • La velocidad de una impresora se suele medir con dos parámetros:
  • ppm: páginas por minuto que es capaz de imprimir;
  • cps: caracteres (letras) por segundo que es capaz de imprimir.
Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier modo, los fabricantes siempre calculan ambos parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se nos advierte de que son páginas con como mucho un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo de cálculo del ordenador.
Y aún así resulta prácticamente imposible conseguir dicha cifra; en realidad, rara vez se consiguen más de 3 ppm de texto con una impresora de tinta, si bien con una láser es más fácil acercarse a las cifras teóricas que indica el fabricante.
Resolución
Probablemente sea el parámetro que mejor define a una impresora. La resolución es la mejor o peor calidad de imagen que se puede obtener con la impresora, medida en número de puntos individuales que es capaz de dibujar una impresora.
Se habla generalmente de ppp, puntos por pulgada (cuadrada) que imprime una impresora. Así, cuando hablamos de una impresora con resolución de "600x300 ppp" nos estamos refiriendo a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede situar 600 puntos individuales, mientras que en vertical llega hasta los 300 puntos. Si sólo aparece una cifra ("600 ppp", por ejemplo) suele significar que la resolución horizontal es igual que la vertical.
De cualquier modo, no todo es "tirar puntos" sobre el papel. Dos impresoras de la misma resolución teórica pueden dar resultados muy dispares, ya que también influye el tamaño de esos puntos y la precisión a la hora de colocarlos sobre el papel. De nada sirve colocar 360.000 puntos en una pulgada cuadrada si están puestos unos sobre otros emborronando la imagen.
Existen 4 tipos de impresora las cuales son:
INYECCIÓN DE TINTA:
Por supuesto, las impresoras matriciales utilizan tinta, pero cuando nos referimos a impresora de tinta nos solemos referir a aquéllas en las que la tinta se encuentra en forma más o menos líquida, no impregnando una cinta como en las matriciales.
La tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta por cada inyector, sin necesidad de impacto. De todas formas, los entresijos últimos de este proceso varían de una a otra marca de impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección por burbuja") y no son realmente significativos a la hora de adquirir una u otra impresora.
Estas impresoras destacan por la sencilla utilización del color. Antiguamente (y todavía en algunos modelos de muy baja gama o en impresoras portátiles), para escribir cualquier cosa en color se tenía que sustituir el cartucho de tinta negra por otro con tintas de los colores básicos (generalmente magenta, cyan y amarillo). Este método tenía el inconveniente de que el texto negro se fabricaba mezclando los tres colores básicos, lo que era más lento, más caro en tinta y dejaba un negro con un cierto matiz verdoso. En la actualidad, la práctica totalidad de estas impresoras incorporan soporte para el uso simultáneo de los cartuchos de negro y de color.
La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440 ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta bastante deficiente, por lo que no es raro encontrar que el resultado de una impresora láser de 300 ppp sea mucho mejor que el de una de tinta del doble de resolución. Por otra parte, suelen existir papeles especiales, mucho más caros que los clásicos folios de papelería, para alcanzar resultados óptimos a la máxima resolución o una gama de colores más viva y realista.
El principal destinatario de este tipo de impresoras es el usuario doméstico, además del oficinista que no necesita trabajar con papel continuo ni con copias múltiples pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes...) con una calidad aceptable. Fabricantes existen decenas, desde los clásicos contendientes Epson y Hewlett-Packard (HP) hasta otros de mucho menor volumen de ventas pero que no desmerecen nada, como son Canon, Tektronik, Lexmark, Oki...
Una nota sobre los cartuchos de tinta: son relativamente caros, debido a que generalmente no sólo contienen la tinta, sino parte o la totalidad del cabezal de impresión; este sistema asegura que el cabezal siempre está en buen estado, pero encarece el precio. Existen decenas de sistemas de recarga de cartuchos para rellenar el cartucho aprovechando el cabezal, pero en el 99% de los casos son un engorro y se pone todo perdido de tinta.
IMPRESORA LÁSER:
Son las de mayor calidad del mercado, si entendemos por calidad la resolución sobre papel normal que se puede obtener, unos 600 ppp reales. En ellas la impresión se consigue mediante un láser que va dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el tóner que formará la imagen definitiva.
Las peculiares características de estas impresoras obligan a que dispongan de su propia memoria para almacenar una copia electrónica de la imagen que deben imprimir. A mayor tamaño y calidad de impresión necesitaremos mayor cantidad de memoria, que estará entorno a 1 ó 2 MB; si el documento a imprimir fuera muy largo y complejo, por ejemplo con varias fotografías o a una resolución muy alta, puede producirse un error por overflow (falta de memoria), lo que puede evitarse mediante la tecnología GDI comentada anteriormente (es decir, utilizando memoria del propio PC) o preferiblemente instalando más memoria a la impresora.
El único problema de importancia de las impresoras láser es que sólo imprimen en blanco y negro. En realidad, sí existen impresoras láser de color, que dan unos resultados bastante buenos, pero su precio es absolutamente desorbitado.
Las láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las impresoras matriciales o de tinta, y aunque la inversión inicial en una láser es mayor que en una de las otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se recupera la inversión. Estas impresoras suelen ser utilizadas en el mundo empresarial, ya que su precio de coste es más alto que el de las de inyección de tinta, pero su coste de mantenimiento es más bajo, y existen dispositivos con una muy alta velocidad por copia y calidad y disponibilidad superiores, así como también admiten una mayor carga de trabajo.
Una de las características más importantes de estas impresoras es que pueden llegar a velocidades muy altas, medidas en páginas por minuto. Su resolución también puede ser muy elevada y su calidad muy alta. Empiezan a ser habituales resoluciones de 1.200 ppm (puntos por pulgada) y velocidades de 16 ppm, aunque esta velocidad puede ser mucho mayor en modelos preparados para grupos de trabajo, hasta 40 ppm y más.
Otras características importantes son la cantidad de memoria disponible y el modelo de procesador, que suele ser de tipo RISC. La memoria es importante para actuar como "buffer" en donde almacenar los trabajos que le van llegando y para almacenar fuentes y otros motivos gráficos o de texto que permitan actuar como "preimpresos" e imprimirlos en cada una de las copias sin necesidad de mandarlos en cada página
IMPRESORAS DE MATRIZ Y MARGARITA:
Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta, la cual suele ser fuente de muchos quebraderos de cabeza si su calidad no es la que sería deseable.
Según cómo sea el cabezal de impresión, se dividen en dos grupos principales: de margarita y de agujas. Las de margarita incorporan una bola metálica en la que están en relieve las diversas letras y símbolos a imprimir; la bola pivota sobre un soporte móvil y golpea a la cinta de tinta, con lo que se imprime la letra correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir eléctricas, lo único que las diferencia es la carencia de teclado.
Las impresoras de margarita y otros métodos que usan tipos fijos de letra están en completo desuso debido a que sólo son capaces de escribir texto; además, para cambiar de tipo o tamaño de letra deberíamos cambiar la matriz de impresión (la bola) cada vez. Por otra parte, la calidad del texto y la velocidad son muy altas, además de que permiten obtener copias múltiples en papel de autocopia o papel carbón.
Las impresoras de agujas, muchas veces denominadas simplemente matriciales, tienen una matriz de pequeñas agujas que impactan en el papel formando la imagen deseada; cuantas más agujas posea el cabezal de impresión mayor será la resolución, que suele estar entre 150 y 300 ppp, siendo casi imposible superar esta última cifra.
Aunque la resolución no sea muy alta es posible obtener gráficos de cierta calidad, si bien en blanco y negro, no en color. El uso de color implica la utilización de varias cintas o cintas más anchas, además de ser casi imposible conseguir una gama realista de colores, más allá de los más básicos.
Al ser impresoras de impacto pueden obtener copias múltiples, lo que las hace especialmente útiles en oficinas o comercios para la realización de listados, facturas, albaranes y demás documentos. Su velocidad en texto es de las más elevadas, aunque a costa de producir un ruido ciertamente elevado, que en ocasiones llega a ser molesto. Resulta muy común encontrarlas con alimentadores para papel continuo, lo que sólo ocurre con algunas impresoras de tinta de precio elevado.
En general, las impresoras matriciales de agujas se posicionan como impresoras de precio reducido, calidad media-baja, escaso mantenimiento y alta capacidad de impresión. Entre los pocos fabricantes que quedan de estas impresoras destaca Epson, con un enorme catálogo con opciones y precios para todos los gustos.

Evolucion Historica De Los Dispositivos Perifericos

EVOLUCION HISTORICA DE LOS DISPOSITIVOS PERIFERICOS

 Se denominan periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.
Según la definición de periférico dada anteriormente, éstos están constituidos por unidades de entrada, unidades de salida y unidades de memoria masiva auxiliar.
Una Computadora es una máquina que no tendría sentido si no se comunicase o interactuara con el exterior, es decir, si no tuviese periféricos.
 Los dispositivos de E/S transforman la información externa en señales codificadas, permitiendo su transmisión, detección, interpretación, procesamiento y almacenamiento.
Dispositivos de entrada y salida
Los dispositivos de entrada son aquellos elementos de hardware que nos permiten el ingreso de datos a la computadora, los mismos que luego de ser procesados serán presentados al usuarios a través de los dispositivos de salida, de los primeros podemos mencionar, el teclado, el mouse, etc. y de los segundos entre los más conocidos podemos anotar la impresora, el monitor, etc.
El teclado de ordenador - Historia y evolución
El teclado, es quizás el componente menos valorado y tenido en cuenta en el ordenador que utilizamos a diario. Damos por hecho que es una pieza integrada en nuestro PC, y no le damos importancia hasta que se estropea. Es bastante curioso teniendo en cuenta que es la parte del ordenador que mas utilizamos y tocamos.
Originalmente, el teclado estándar no se desarrolló a partir de una sola fuente. Se creo por medio de tres proyectos diferentes generados por IMB, y hubo más de un problema a lo largo de su camino.
Muchas configuraciones tienen su origen directo en el teclado IBM “IBM Enhanced 101 Key Keyboard”, el cual IBM asentó como estándar en el año 1987. Este teclado mejorado no fue el primero que creo IBM sino el tercero. ¿Cómo fueron los anteriores modelos de teclados? Para empezar, el primer teclado original de IBM tenía 83 teclas (IBM PC and XT keyboards). Había 10 teclas de función en la parte izquierda del teclado, y unas teclas numéricas y un cursor en la parte derecha. Lo que ahora llamamos Control (ctrl.), y las teclas Shift y Alt, estaban localizados un una línea cerca de las teclas de función.
La tecla escape (Esc) estaba a la izquierda de los números en la parte superior. A la derecha de la tecla Shift, una tecla permitía al usuario teclear el signo tan común  *.* de forma directa. El diseño de este primer teclado de IBM era un poco absurdo respecto a la colocación de las teclas, aunque las abreviaturas y atajos a ciertas funciones eran bastante prácticas. Por desgracias, muchas de estos atajos desaparecieron en los teclados modernos.
El siguiente diseño de IBM fue el teclado original AT. Era de algún modo incompatible con el mas temprano diseño PC/XT, se podía reprogramar para que el teclado funcionara. El teclado AT  aceptaba 10 teclas de función a la derecha, y colocó la tecla de escape en la parte de los números.
En algún punto, en donde el mercado forzó a IBM la actualización del ordenador AT, introdujo el modelo mejorado de teclado, el cual hemos comentado al principio, y que era compatible con el modelo AT original, pero con un diseño muy distinto. La tecla Esc y las 12 teclas de función estaban ahora en la parte superior, los números se movieron a la parte derecha. Los cursores cambiaron, convirtiéndose en lo que conocemos hoy en día. Cuatro teclas con flechas en la parte inferior al lado de los números, y encima, un grupo de 6 teclas, para paginar arriba y abajo, suprimir, inicio, insertar y finalizar.
Como curiosidad, comentaremos que la tecla suprimir dio algunos problemas a los usuarios de la época ya que muchos la presionaban para finalizar un trabajo, cuando en realidad lo estaban borrando. Hay que tener en cuenta que en los antiguos ordenadores no había demasiada memoria, por lo que algunos trabajos eran irrecuperables. Afortunadamente, hoy en la mayoría de casos, se pueden salvar esos datos perdidos.
Algunos cambio más se han ido produciendo dejando el teclado tal como lo conocemos hoy en día. Hay incluso teclas que realmente no sabemos para que son. Somos seres de costumbres y normalmente nos habituamos a tocar ciertas teclas que nos sirven para nuestras tareas y con eso es suficiente.
EVolucion del Mouse.
Uno de los periféricos más olvidados cuando hablamos de nuestro hardware es el ratón. En parte por olvido, en parte porque pasa un poco desapercibido ante los billones de microtransistores que componen los actuales procesadores y núcleos de video, pero lo general es que muchos usuarios en general invierten sumas millonarias en su nuevo computador comprando con las monedas que reciben de cambio ratón y teclado. Los más sensatos buscan un poco más de equilibrio, conscientes de que finalmente el mouse será el periférico que nos hará la experiencia de uso de la máquina grata o ingrata en la mayoría de los casos; el caso extremo de esto son los gamers empedernidos, que invierten grandes sumas de dinero en ratones que les permitan tener la mayor precisión posible al jugar (100 dpi pueden ser claves a la hora de un frag en una partida muy competitiva).
Hoy, el mouse está cada día más cercano a dejar de ser un roedor propiamente tal, de la mano de las tecnologías inalámbricas que están dejándolo sin cola, pero no por eso vamos a dejar de celebrar su cumpleaños número 40 (les apuesto que todos pensaban que tenía mucho menos tiempo) mostrándoles parte de un reportaje que preparó el blog de la Wired (sólo una parte, para que vayan a leerlo completo allá) con un breve recorrido por su evolución y futuro.
 El primer dispositivo señalador que el mundo conoció fue el que presentó Douglas Engelbart el 9 de Diciembre de 1968, en una demostración pública de lo que podía ser un “computador personal” (a diferencia de esos salones llenos de tubos que componían una computadora profesional de la época) y que es el hecho que históricamente dio el puntapié inicial a la revolución de la computación  
Este protomouse era un bloque de madera tallado, con solamente un botón y debajo tenía dos ruedas sobre ejes que tenían la función de mover un par de potenciómetros que eran los que en rigor daban la posición del puntero.
Como en ese tiempo todo se trataba de experimentar, no sólo se probaron prototipos de dispositivo señalador operados con la mano. También se trabajó en un aparato que nos permitía controlar el puntero con la rodilla.          
El aparato naturalmente se ubicaba debajo de la mesa y estaba inspirado en el hecho de que las piernas podían ser utilizadas con bastante precisión para manejar los pedales de un automóvil. Según Engelbert, el dispositivo podía ser aún más preciso que un mouse operado con la mano. Por suerte no logró imponerse por sobre éste, El paso que permitió que el mouse se posicionara definitivamente como el dispositivo señalador preferido fue su incorporación en el primer Mac, el Macintosh 128K allá por 1984, que tenía la gracia de tener un sistema operativo con una interface gráfica (mucho antes de Windows) donde el puntero se controlaba con el mouse.
El mouse Apple era bastante cuadrado y además incluía sólo un botón, cosa que fue característica del fabricante de la manzana por mucho tiempo (aún cuando los sistemas operativos fueron evolucionando e incorporaron menús contextuales si los querías invocar con el mouse tenías que ocupar una tecla del teclado o usar un mouse de otra marca).
El primer trackball es incluso anterior al primer mouse de Engelbert, pero su uso no estaba orientado a computadoras personales sino que al control del DATAR, una máquina de la armada canadiense que permitía simular un campo de batalla con radar y todo.
 Los trackball fueron evolucionando, eliminando la bola de boliche y cambiándola por una de un tamaño algo más discreto; Logitech vendió varios productos basados en trackball y orientados a gamers pero donde hemos visto una especie de renacimiento del concepto (amado por algunos y odiada por otros) es en los teléfonos inteligentes, como las Blackberry y el T-Mobile G1. En ellos la bolita se hace aún más pequeña para quedar a merced de los pulgares.
Otra cosa amada y odiada por muchos son los touchpad. Hoy en día presentes en la totalidad de los computadores portátiles (que día a día van apoderándose más y más del mercado), consisten básicamente en una superficie plana donde al deslizar el dedo podemos mover el puntero de la interface. Una característica que tienen es que no son absolutos, es decir da lo mismo donde apoyemos el dedo ya que ahí será donde coja al puntero (a diferencia de las tabletas digitalizadoras, que si pueden trabajar de modo absoluto).                                       
Hoy en día los touchpad (o trackpad como también se les conoce) se han desarrollado permitiéndo el uso de más de un dedo (el ejemplo perfecto son los nuevos Macbook, donde incluso se reconocen gestos de varios dedos asignables a funciones del sistema operativo). Synaptics, uno de los fabricantes más grandes de touchpads últimamente ha liberado drivers que permiten el uso de varios dedos en Windows.
El dispositivo señalador que más he odiado en mi vida es el Trackpoint que venía en los Thinkpad de IBM y otros notebooks Dell, Toshiba y HP. Sencillamente insoportable, impreciso, incómodo. Muchos lo defendieron diciendo que era ideal para el trabajo de los tipeadores y programadores, ya que no había que sacar la mano del teclado interrumpiendo el tipeo y que además las muñecas descansaban en el cuerpo del notebook a diferencia de cuando uno usa touchpad, lo que bajaba las posibilidades de enfermarse del túnel carpiano.                                  
A pesar de que los fabricantes de notebooks lo siguen usando, yo y mi dedo índice protestamos enérgicamente: el TrackPoint, PointStick, AccuPoint o como quiera llamarlo no es un periférico de mi agrado. Para nada.
Para cerrar este pequeño recorrido por los diferentes tipos de dispositivos señaladores inventados a lo largo de la historia, incluyo lo que muchos dicen serán los mice del futuro: dispositivos que leen las ondas cerebrales (si, que miedo) para de esa manera controlar el cursor / interface del sistema operativo. Yo francamente no sé como vayan a evolucionar los ratones, ya que personalmente soy tan descoordinado que si trato de usar el teclado y controlar un cursor con la mente probablemente termine mordiéndome la lengua. Quizás a otros les vaya mejor. Lo único que sé es que por ahora lo que más me acomoda son los mouse tradicionales (he tenido la desgracia de manejar mouses tridimensionales en varias ferias electrónicas y son LO incómodo, los fabricantes no tienen en cuenta lo cansador que es tener los brazos en alto), claro que ópticos (nada de bolitas llenas de mugre y migas de la mesa) e inalámbricos (Bluetooth, por supuesto; nada más absurdo que tener que enchufarle un apéndice a algún puerto USB del notebook para tener mouse).           
Evolucion del scanner.
Un escáner de computadora es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital.
Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales.
Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción
Tipos de escaner
Hay varios tipos. Hoy en día los más extendidos son los planos.
  • De rodillo. Como el escáner de un fax
  • "de barras".- Se usan para registrar codigo de barras
  • De mano. En su momento muy económicos, pero de muy baja calidad. Prácticamente extintos.
  • Planos. Como el de las fotocopiadoras.
  • Cenitales. Para escanear elementos frágiles.
  • De tambor. Consiguen muy buena calidad de escaneo, pero son lentos y caros.
  • Otros tipos. Existen tipos de escáneres especializados en un trabajo determinado (por ejemplo para escanear microfilms, o para obtener el texto de un libro completo, para negativos...).
Escáner plano
También llamados escáneres de sobremesa, están formados por una superficie plana de vidrio sobre la que se sitúa el documento a escanear, generalmente opaco, bajo la cual un brazo se desplaza a lo largo del área de captura. Montados en este brazo móvil se encuentran la fuente de luz y el fotosensor de luz (por lo general un CCD).
Conforme va desplazándose el brazo, la fuente de luz baña la cara interna del documento, recogiendo el sensor los rayos reflejados, que son enviados al software de conversión analógico/digital para su transformación en una imagen de mapa de bits, creada mediante la información de color recogida para cada píxel.
La mayoría de estos escáneres pueden trabajar en escala de grises (256 tonos de gris) y en color (24 y 32 bits) y por lo general tienen un área de lectura de dimensiones 22 x 28 cm. y una resolución real de escaneado de entre 300 y 2400 ppp, aunque mediante interpolación pueden conseguir resoluciones de hasta 19200 ppp.
Están indicados para digitalizar objetos opacos planos (como fotografías, documentos o ilustraciones) cuando no se precisa ni una alta resolución ni una gran calidad.
Algunos modelos admiten también adaptadores especiales para escanear transparencias, y otros poseen manipuladores de documento automáticos (Automatic Document Handler) que pueden aumentar el rendimiento y disminuir la fatiga del operador en el caso de grupos de documentos uniformes que se encuentran en condiciones razonablemente buenas.
Los escáneres planos son los más accesibles y usados, pues son veloces, fáciles de manejar, producen imágenes digitalizadas de calidad aceptable (sobre todo si están destinadas a la web) y son bastante baratos, pudiéndose adquirir uno de calidad media por menos de 120 €.
La mayor desventaja de estos escáneres es la limitación respecto al tamaño del documento a escanear, que queda limitado a los formatos DIN-A5 o DIN-A4.
Escáner cenital
Un escáner cenital (en inglés planetary scanner u orbital scanner) es un tipo de escáner que se utiliza para hacer copias digitales de libros o documentos que, por ser viejos o extremadamente valiosos, para que no se deterioren escaneándolos con otro tipo de escáner.
Estos escáneres consisten en una cámara montada en un brazo que toma fotos del elemento deseado. Su ventaja principal es que los libros no tienen que ser abiertos completamente (como pasa en la mayoría de los escáneres planos). El escaneo de volúmenes encuadernados se realiza gracias a que la fuente de luz y el sensor CCD se encuentran ensamblados a un brazo de trayectoria aérea.
En sus inicios el precio de estos escáneres era elevado y sólo se utilizaban en museos y archivos, pero en la actualidad la disponibilidad de cámaras digitales buenas y baratas han hecho que estos escáneres no resulten tan privativos.
Escáner de tambor
Los escáneres de tambor son los que más fielmente reproducen el documento original, ya que producen digitalizaciones de gran calidad y resolución (hasta 16.000 ppp de resolución óptica). Sus problemas son la velocidad de escaneo (son lentos), no son indicados para documentos de papel quebradizo porque es necesario curvarlo sobre el tambor y requieren un alto nivel de habilidad por parte del operador. Además, son bastante caros.
Utilizan una tecnología diferente a la del CCD. Los originales, normalmente transparencias (aunque se pueden escanear opacos también), se colocan en un cilindro transparente de cristal de gran pureza, que a su vez se monta en el escáner. El tambor gira entonces a gran velocidad mientras se hace la lectura de cada punto de la imagen. La fuente de luz suele ser un láser que se encuentra dentro del tambor (para transparencias) o fuera (para opacos), y el sensor es un tubo fotomultiplicador (PMT) que recibe la luz de un único punto de la imagen en cada instante.
Producen digitalizaciones de alta resolución y buena gama dinámica entre bajas y altas luces, con imágenes en colores primarios, que pueden ser convertidas en CMYK mientras el lector recorre la imagen.
Son muy caros, oscilando su precio, según modelos, entre 15.000 € y 200.000 €, por lo que suelen ser usados exclusivamente por empresas especializadas del sector de las artes gráficas (laboratorios, imprentas, editoriales, etc.).

Escáner para microfilm

Los escáneres para microfilm son dispositivos especializados en digitalizar películas en rollo, microfichas y tarjetas de apertura.
Puede ser difícil obtener una calidad buena y consistente en un escáner de este tipo, debido principalmente a que los suelen tener un funcionamiento complejo, la calidad y condición de la película puede variar y ofrecen una capacidad de mejora mínima. Son escáneres muy caros, existiendo pocas empresas que los fabriquen.

Escáner para transparencias

Los escáneres para transparencias se utilizan para digitalizar diapositivas, negativos fotográficos y documentos que no son adecuados para el escaneado directo. Pueden trabajar con varios formatos de película transparente, ya sea negativa, positiva, color o blanco y negro, de tamaño desde 35 mm hasta placas de 9 x 12 cm.
Existen dos modalidades de este tipo de escáneres:
  • Escáneres de 35 mm. Solo escanean negativos y transparencias, pero lo hacen a resoluciones muy altas.
  • Escáneres multiformato. Suelen capturar transparencias y negativos hasta formato medio o hasta formato de placas 4”x 5” o incluso 5”x 7”, tienen una resolución muy alta y un rango dinámico en ocasiones sorprendente, pero frecuentemente no permiten escanear opacos. El uso de medios transparentes por lo general produce imágenes con un buen rango dinámico, pero, dependiendo del tamaño del original, la resolución puede ser insuficiente para algunas necesidades.
La calidad obtenida es mayor que la que ofrecen los escáneres planos, aunque hay que tener cuidado con la presencia de motas de polvo o rascaduras en las transparencias, que pueden ocasionar la aparición de impurezas en la imagen digitalizada resultante.

Escáner de mano

                                                
 Estos escáners son dispositivos manuales que son arrastrados sobre la superficie de la imagen a escanear. Escanear documentos de esta manera requiere una mano firme, entonces una desigual velocidad de exploración produce imágenes distorsionadas, normalmente un indicador luminoso sobre el escáner indica si la exploración fue demasiado rápida. Generalmente tienen un botón "Inicio", el cual es sostenido por el usuario durante la exploración; algunos interruptores para configurar la resolución óptica y un rodillo, lo que genera un reloj de pulso para sincronización con la computadora. La mayoría de escáneres de mano fueron en blanco y negro, y la luz generada por una serie de LEDs verdes para iluminar la imagen. Un típico escáner de mano también tenía un programa que abría una pequeña ventana a través de la cual se podía ver el documento que se escaneaba. Fueron populares durante la década de 1990 y, por lo general tenían un módulo de interfaz propietario específico para un determinado tipo de computadora, generalmente un Atari ST o Commodore Amiga.

 Calidad del escáner

A los datos que obtienen los escáneres (normalmente imágenes RGB) se les aplica cierto algoritmo y se envían a la computadora mediante una interfaz de entrada/salida (normalmente SCSI, USB o LPT en máquinas anteriores al estándar USB). La profundidad del color depende de las características del vector de escaneado (la primera de las características básicas que definen la calidad del escáner) que lo normal es que sea de al menos 24 bits. Con 48 bits se obtiene una mejor calidad o profundidad del color.
Otro de los parámetros más relevantes de la calidad de un escáner es la resolución, medida en píxeles por pulgada (ppp). Los fabricantes de escáneres en vez de referirse a la resolución óptica real del escáner, prefieren hacer referencia a la resolución interpolada, que es mucho mayor gracias a la interpolación software.
Por hacer una comparación entre tipos de escáns más caros llegaban hasta los 5400 ppp. Un escáner de tambor tenía una resolución de 8000 a 14000 ppp.
El tercer parámetro más importante para dotar de calidad a un escáner es el rango de densidad. Si el escáner tiene un alto rango de densidad, significa que es capaz de reproducir sombras y brillos con una sola pasada.
Al escanear se obtiene como resultado una imagen RGB no comprimida que puede transferirse a la computadora. Algunos escáneres comprimen y limpian la imagen usando algún tipo de firmware embebido. Una vez se tiene la imagen en la computadora, se puede procesar con algún programa de tratamiento de imágenes como Photoshop, Paint Shop Pro o GIMP y se puede guardar en cualquier unidad de almacenamiento como el disco duro.
Normalmente las imágenes escaneadas se guardan con formato JPEG, TIFF, mapa de bits o PNG dependiendo del uso que se le quiera dar a dicha imagen más tarde.
Cabe mencionar que algunos escáneres se utilizan para capturar texto editable (no sólo imágenes como se había visto hasta ahora), siempre y cuando la computadora pueda leer este texto. A este proceso se le llama OCR (Optical Character Recognition).
historia del LÁPIZ ÓPTICO
Es una unidad de ingreso de información que funciona acoplada a una pantalla fotosensible.
Es un dispositivo exteriormente semejante a un lápiz, con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible.
Es un dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al ordenador o computadora y con el que es posible seleccionar elementos u opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla. El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.
Evolucion Historica del Microfono.

En 1827, Wheastone utiliza por primera vez la palabra “micrófono” para describir un dispositivo acústico diseñado para amplificar sonidos débiles. Procede de los vocablos griegos “micro”(pequeño) y “phon”(sonido).

En 1876, Alexander Graham Bell registra una patente del “telégrafo hablado”(el primer teléfono). Por primera vez incluye el micro funcional que usa un electroimán.

En 1877, aparece el micrófono de “contacto suelto” o “carbón”, un diseño no magnético basado en partículas conductoras de carbón como las que tienen los teléfonos.

En 1878, es diseñado el primer micro de bobina móvil.
En 1917, presentan el primer micro de condensador práctico y moderno.
En 1931, Western Electric presenta el primer micro dinámico: el modelo 600, serie 618.

En 1931, la marca RCA presenta el primer micrófono de cinta bidireccional: 44ª de imán permanente.
En 1947, se funda AKG en Viena.
En 1948, Neumann lanza el micro a válvulas U47, el primer micro de condensador con patrón conmutable entre cardioide y omnidireccional. Acabó convirtiéndose en todo un clásico para grabar voces desde que se supo que Frank Sinatra se negaba a cantar sin su U47.
En 1962, Hideo Matsushita establece la empresa Audio-Technica Corporation en Tokio. La compañía lanza los modelos AT-1 y AT-3MM de cápsulas estereofónicas y empieza a suministrar cápsulas a fabricantes de audio. Posteriormente, en 1978, Audio-Technica lanza los auriculares de condensador ATH-8 y ATH-7. Estos auriculares ganaron diversos premios.
Este año también se produjo el desarrollo y lanzamiento de la Serie 800 de micrófonos, y la creación de Audio-Technica Ltd. en Leeds, Inglaterra.
En 1991, sale al mercado el micrófono de condensador AT4033, elegido mejor micrófono en el AES(Audio Engineering Society) y en 1994, presenta el micrófono de condensador de multipatrón AT4050/CM5.
En 1995, la planta de fabricación de micrófonos, auriculares, sistemas inalámbricos y mezcladores de micrófono consigue la certificación ISO9002.

En 1996, los micrófonos y auriculares Audio-Technica son utilizados en todos los recintos de los Juegos Olímpicos de Atlanta.
En 1998, Audio-Technica presenta el AT4060 un micro de condensador a válvulas de estudio; y el excelente resultado de los productos Audio-Technica en Atlanta ’96, hacen que en el año 2000 sea designada también como proveedor de en los juegos de Sydney’00.
En 2002, Audio-Technica celebra su 40 aniversario. Y es designada, para proporcionar aproximadamente 2.800 micrófonos para los Juegos de SALT Lake City, marcando así su primera participación en unos Juegos Olímpicos de Invierno. A pesar de las severas condiciones climáticas, los micros A-T respondieron perfectamente.

Desde sus inicios como fabricante de cápsulas estereofónicas hace 40 años,
Audio-Technica ha permanecido en la vanguardia y ha desarrollado numerosas tecnologías que se han convertido en estándares de la industria.
DISPOSITIVOS DE SALIDA

Historia de los monitores

El monitor es el principal periférico de salida de una computadora. Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.
La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel.
Clasificación según estándares de monitores
Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes.

Monitores MDA:

Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios.
Características:
  • Sin modo gráfico.
  • Resolución 720_350 píxeles.
  • Soporte de texto monocromático.
  • No soporta gráfico ni colores.
  • La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
  • Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

Monitor CGA:                            

Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.
Características:
  • Resoluciones 160_200, 320×200, 640×200 píxeles.
  • Soporte de gráfico a color.
  • Diseñado principalmente para juegos de computadoras.
  • La tarjeta gráfica contenía 16 KB de memoria de vídeo.

Monitor EGA:                                    

Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características.
Características:
  • Resolución de 640_350 píxeles.
  • Soporte para 16 colores.
  • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Monitor VGA:                                       

Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas.

Características:
  • Soporte de 720×400 píxeles en modo texto.
  • Soporte de 640×480 píxeles en modo gráfico con 16 colores.
  • Soporte de 320×200 píxeles en modo gráfico con 256 colores.
  • Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

Monitor SVGA:                                    

SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

Características:
  • Resolución de 800×600, 1024_768 píxeles y superiores.
  • Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.

Monitores CRT:                                          

Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.
Ventajas:
  • Excelente calidad de imagen (definición, contraste, luminosidad).
  • Económico.
  • Tecnología robusta.
  • Resolución de alta calidad.
Desventajas:
  • Presenta parpadeo por el refrescado de imagen.
  • Consumo de energía.
  • Generación de calor.
  • Generación de radiaciones eléctricas y magnéticas.
  • Alto peso y tamaño.

Pantallas LCD:                                     

A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no.
Una pantalla LCD está formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul.
Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.
Ventajas:
  • Poco peso y tamaño.
  • Buena calidad de colores.
  • No contiene parpadeo.
  • Poco consume de energía.
  • Poca generación de calor.
  • No genera radiaciones eléctricas y magnéticas.
Desventajas:
  • Alto costo.
  • Angulo limitado de visibilidad.
  • Brillo limitado.
  • Bajo tiempo de respuesta de píxeles.
  • Contiene mercurio.

Pantallas Plasma:                                   

La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad.

Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible.
Ventajas:
  • Excelente brillo.
  • Alta resolución.
  • Amplio ángulo de visión.
  • No contiene mercurio.
  • Tamaño de pantalla elevado.
Desventajas:
  • Vida útil corta.
  • Coste de fabricación elevado, superior a los LCD.
  • Consumo de electricidad elevado.
  • Poca pureza del color.
  • Consumo energético y emisión de calor elevada.

Una impresora sirve para transcribir un documento desde la PC a un medio físico como el papel, por medio del uso de cintas, cartuchos de tinta o con tecnología láser. La historia de la impresora se puede remontar junto con la creación de la primera computadora, la máquina analítica de Charles Babbage, a pesar de que el inventor nunca logró construir su PC, sí terminó los planos en los que se incluía el mecanismo de impresión. En 1950 llega la primera impresora eléctrica para computadoras, sin embargo solo era capaz de imprimir textos. Siete años más tarde se desarrolla la impresión por matriz de puntos, pero contaba con las mismas limitaciones que su antecesor. En 1959 Xerox fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a color, fabricada por Canon. En 1978 se crea la impresora de margarita, que únicamente podía escribir letras y números, pero tenía la calidad de una máquina de escribir. Finalmente en 1980 aparece la impresora láser en blanco y negro, 8 años más tarde le implementan la modalidad de color.

HISTORIA DE LAS BOCINAS
La bocina es un instrumento musical de aire. Se inventó en Francia en 1680 y servía tan solo para la caza. Después se introdujo en Alemania y allí se perfeccionó y se aplicó a la música. Para esta se adoptó en Francia en 1730 pero no la introdujeron en la orquesta de la ópera hasta en 1757.
En esta época daba muy pocos sonidos, pero en 1759 un alemán llamado Hampl discurrió que era fácil hacerle producir otros, tapando con la mano una parte del pabellón o campana del instrumento. Este descubrimiento abrió la carrera a artistas hábiles que se entregaban al estudio de la trompa. Otro alemán llamado Haltenhoft mejoró este instrumento añadiendo una bomba por medio de la cual se afina exactamente, cuando por el calor del aliento se suben las entonaciones.