lunes, 28 de junio de 2010
Linux
LINUX
Es un sistema operativo descendiente de UNIX. Unix es un sistema operativo robusto, estable, multiusuario, multitarea, multiplataforma y con gran capacidad para gestión de redes, Linux fue creado siguiendo estas características. En la década de los ochenta apareció un nuevo sistema, era una versión básica y reducida de Unix llamada Minix, su autor fue Andrew Tanenbaum, el objetivo era crear un acceso a este sistema sin tener que pagar licencias, basados en este sistema el señor Linus B. Torvalds, a mediados de 1991 empezó a trabajar en un proyecto para mejorar las deficiencias de Minix, Torvalds creo la primera versión de Linux (Contracción de Linus y Unix) numerada como versión 0.01.
LINUX es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente. El sistema lo forman el núcleo del sistema (kernel) mas un gran numero de programas / librerías que hacen posible su utilización.
Linux es libre, flexible, gratuito, configurable, eficiente, no requiere hardware caro, no obliga a cambiar continuamente la versión del software.
Linux requiere mas conocimientos de informática, no hay sustituto directo para todas las aplicaciones, algunos dispositivos de última generación no están soportados (cada vez son menos).Linux es un software menos comercial por lo cual es menos utilizado ya que como es gratuito la mayoría de usuarios no le tienen toda la confianza.Linux no es una excepción, solo que en relación a Windows es mucho menos vulnerable.
Ventajas:
• El mejor costo del mercado, gratuito o un precio simbolico por el cd.
• Tienes una enorme cantidad de software libre para este sistema
• Mayor estabilidad por algo lo usan en servidores de alto rendimiento
• Entorno grafico (beryl) mejor que el aero de windows…
• Existen distribuciones de linux para diversos tipos de equipo, hasta para maquinas de 64 bits.
• Las vulneralidades son detectadas y corregidas más rapidamente que cualquier otro sistema operativo.
Desventajas:
• Para algunas cosas debes de saber usar unix
• La mayoria de los ISP no dan soporte para algo que no sea windows (ignorantes).
• No Existe mucho software comercial.
• Muchos juegos no corren en linux.
lunes, 14 de junio de 2010
Micro-Procesadores
Microprocesador
Microchip más importante en una computadora, es considerado el cerebro de una computadora. Está constituido por millones de transistores integrados. Este dispositivo se ubica en un zócaloplaca madre y dispone de un sistema de enfriamiento (generalmente un ventilador).Lógicamente funciona como la unidad central de procesos (CPU), que está constituida por registros, la unidad de control y la unidad aritmético-lógica. En el microprocesador se procesan todas las acciones de la computadora.
Su "velocidad" es medida por la cantidad de operaciones por segundo que puede realizar: la frecuencia de reloj. La frecuencia de reloj se mide en MHz (megahertz) o gigahertz (GHz).
También dispone de una memoria caché (medida en kilobytes), y un ancho de bus (medido en bits).El primer microprocesador comercial fue el Intel 4004, presentado el 15 de noviembre de 1971. Actualmente las velocidad de procesamiento son miles de veces más grandes que los primeros microprocesadores. También comienzan a integrarse múltiples procesadores para ampliar la capacidad de procesamiento. Se estima que para 2010 vendrán integrados hasta 80 núcleos en un microprocesador, son llamados procesadores multi-core.
especial en la
Historia de los primeros microprocesadores
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, siendo la compañía pionera en el campo de la fabricación de estos productos, y que actualmente cuenta con más del 90 por ciento del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el que desde aquel 4004 hasta el actual Pentium II hemos visto pasar varias generaciones de máquinas que nos han entretenido y nos han ayudado en el trabajo diario.
Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia dónde vamos, en lugar de en dónde hemos estado. Por ello, no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos quince años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011 utilizaremos procesadores cuyo reloj irá a una velocidad de 10 GHz (10.000 MHz), contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, que permitirá realizar tareas nunca antes pensadas.
|
Los inicios
Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del año 1971 hasta el actual Pentium II del presente año ha llovido mucho en el campo de los procesadores. Tanto, que no estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer procesador 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 KHz (sí, habéis leído bien, kilohertzios), disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.
Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades, en lo que suponía la aparición del primer ordenador que la gente podía comprar, y no ya simplemente utilizar.
La introducción de IBM
Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. En cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.
En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo.
Microsoft también juega
El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo conocíamos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues permitió que personas de cualquier condición pudiera manejar un ordenador con unos requerimientos mínimos de informática.
Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del coste para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.
Llega el Pentium
Sin embargo, Intel no se quedó contemplando la gran obra que había creado, y rápidamente anunció que en breve estaría en la calle una nueva gama de procesadores que multiplicaría de forma general por cinco los rendimientos medios de los 80486. Se trataba de los Pentium, conocidos por P5 en el mundillo de la informática mientras se estaban desarrollando, y de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Esto era debido a que otras compañías dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y potencia en numerosos cómics y programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes.
Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio (ver recuadro explicativo). Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.
Pentium Pro y Pentium II
La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico, puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede tirar un mercado en constante evolución.
Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado Intel. Por el momento únicamente se dispone de las versiones a 233 y 266 MHz, pero después de este verano podremos disfrutar de la versión de 300 MHz, que supondrá un nuevo récord de velocidad de reloj. El Pentium II, cuyas características fueron tratadas con detalle en el artículo de portada del pasado mes de la revista, es hoy (por poco tiempo) el extremo de la cadena evolutiva de Intel.
El futuro de los microprocesadores
La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención de millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros de Intel a la hora de desarrollar nuevos chips. El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano. Para empezar, la velocidad se incrementará una media del 33 por ciento con respecto a la generación de anterior. Es decir, el mismo procesador usando esta nueva tecnología puede ir un 33 por ciento más rápido que el anterior. Para que os podáis hacer una idea del tamaño de esta tecnología, deciros que el valor de 0.25 micras es unas 400 veces más pequeño que un pelo de cualquier persona. Y este tamaño es el que tienen los transistores que componen el procesador. El transistor, como muchos sabréis, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad, pero se ajusta a ella más o menos). Dicha corriente eléctrica circula entre dos puntos, de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar pues el tiempo de paso es menor. Aunque estamos hablando de millonésimas de segundo, tened en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo bastante importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos incluso utilizando el mismo procesador. Por el momento, en un futuro cercano además de contar con la arquitectura de 0.25 micras, podremos disfrutar de duna de 0.07 para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj cercana a los 10000 MHz, es decir, 10 GHz.
La tecnología MMX
Aunque no podamos considerar la tecnología MMX como un procesador en sí mismo, sería injusto no hablar de ella en un informe como éste. Es uno de los mayores pasos que ha dado Intel en la presente década, y según ellos mismos, todos los procesadores que fabriquen a partir de mediados del próximo año llevarán incorporada esta arquitectura. Para su desarrollo se analizaron un amplio rango de programas para determinar el funcionamiento de diferentes tareas: algoritmos de descompresión de vídeo, audio o gráficos, formas de reconocimiento del habla o proceso de imágenes, etc. El análisis dio como resultado que numerosos algoritmos usaban ciclos repetitivos que ocupaban menos del 10% del código del programa, pero que en la práctica suponían el 90% del tiempo de ejecución. De modo que nació la tecnología MMX, compuesta por 57 instrucciones y 4 tipos de datos nuevos, que se encargan de realizar esos trabajos cíclicos consumiendo mucho menos tiempo de ejecución. Antes, para manipular 8 bytes de datos gráficos requería 8 repeticiones de la misma instrucción; ahora, con la nueva tecnología, se puede utilizar una única instrucción aplicada a los 8 bytes simultáneamente, obteniendo de este modo un incremento del rendimiento de 8x.
El Monitor
El monitor es el principal periférico de salida de una computadora. Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.
La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel.
Clasificación según estándares de monitores
Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes.
Monitores MDA:
Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.
Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios.
Características:
- Sin modo gráfico.
- Resolución 720_350 píxeles.
- Soporte de texto monocromático.
- No soporta gráfico ni colores.
- La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
- Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.
Monitor CGA:
Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM.
A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.
Características:
- Resoluciones 160_200, 320×200, 640×200 píxeles.
- Soporte de gráfico a color.
- Diseñado principalmente para juegos de computadoras.
- La tarjeta gráfica contenía 16 KB de memoria de vídeo.
Monitor EGA:
Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.
EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características.
Características:
- Resolución de 640_350 píxeles.
- Soporte para 16 colores.
- La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.
Monitor VGA:
Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.
Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas.
Características:
- Soporte de 720×400 píxeles en modo texto.
- Soporte de 640×480 píxeles en modo gráfico con 16 colores.
- Soporte de 320×200 píxeles en modo gráfico con 256 colores.
- Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.
Monitor SVGA:
SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.
SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.
Características:
- Resolución de 800×600, 1024_768 píxeles y superiores.
- Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.
Clasificación según tecnología de monitores
En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.
Monitores CRT:
Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.
Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.
Funcionamiento:
Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.
Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.
Ventajas:
- Excelente calidad de imagen (definición, contraste, luminosidad).
- Económico.
- Tecnología robusta.
- Resolución de alta calidad.
Desventajas:
- Presenta parpadeo por el refrescado de imagen.
- Consumo de energía.
- Generación de calor.
- Generación de radiaciones eléctricas y magnéticas.
- Alto peso y tamaño.
Pantallas LCD:
A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.
Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.
Funcionamiento:
El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez.
Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no.
Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul.
Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.
Ventajas:
- Poco peso y tamaño.
- Buena calidad de colores.
- No contiene parpadeo.
- Poco consume de energía.
- Poca generación de calor.
- No genera radiaciones eléctricas y magnéticas.
Desventajas:
- Alto costo.
- Angulo limitado de visibilidad.
- Brillo limitado.
- Bajo tiempo de respuesta de píxeles.
- Contiene mercurio.
Pantallas Plasma:
La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.
Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad.
Funcionamiento:
El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.
Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.
El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible.
Ventajas:
- Excelente brillo.
- Alta resolución.
- Amplio ángulo de visión.
- No contiene mercurio.
- Tamaño de pantalla elevado.
Desventajas:
- Vida útil corta.
- Coste de fabricación elevado, superior a los LCD.
- Consumo de electricidad elevado.
- Poca pureza del color.
- Consumo energético y emisión de calor elevada.
¿Qué es la resolución de pantalla?
Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (“X”), el cual se coloca al principio y el número de filas (“Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:
Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo.
¿Qué es el monitor?
El monitor es una parte integral de cada sistema de computación. Son nuestro enlace visual con todas las aplicaciones y se han convertido en un componente vital para determinar la calidad global y el confort de nuestro sistema de computación.
Cómo se mide el tamaño de la pantalla.
El tamaño de la pantalla es la medida del tubo de figura, tomada diagonalmente de una esquina a otra. Los fabricantes publican los tamaños de pantalla visualizables, además del tamaño de los tubos de rayos catódicos (CRT) en sus monitores. El tamaño CRT es el tamaño real del tubo de figura. El tamaño de pantalla visualizable es la superficie útil de la pantalla. Debido a que el tubo de figura se encuentra dentro del revestimiento plástico, el tamaño de pantalla visualizable es ligeramente menor que el tamaño de CRT o el tamaño real de la pantalla. Dicha medida generalmente viene expresada en pulgadas cuya equivalencia es 1 pulgada = 2,54 centímetros.
Cómo se presentan los colores en los monitores a
color.
El color es creado de la misma forma en los televisores y en los monitores. El interior del CRT está revestido de fósforo y brilla al ser impactado por un haz de electrones.
Fósforos de tres colores primarios se utilizan en el revestimiento del interior del CRT: rojo, verde y azul. Estos tres colores son combinados en diferentes intensidades para producir todos los colores disponibles. Por ejemplo, si se activan todos los tres colores (rojo, verde y azul) producen el blanco.
Cómo funciona un monitor a color .
Dentro de un monitor a color se encuentra un Tubo de Rayos Catódicos (CRT), también conocido como tubo de figura. El CRT tiene un ensamblaje de disparo de electrones, una máscara y una pantalla de vidrio revestida de fósforos a color en su parte interna. Al ser activado, el dispositivo de disparo de electrones dispara haces de electrones. La máscara protege y dirige los haces hacia el fósforo específico, el cual ilumina o brilla sobre el haz de electrones que hace impacto en él.
Por qué es importante la resolución.
La resolución se refiere a la densidad de la imagen en la pantalla. La resolución se expresa al estilo de un enorme crucigrama: el número de puntos o de elementos de imagen (píxel) que cruzan una línea, multiplicado por el número de líneas horizontales. Una pantalla VGA de 640 x 480 tiene 640 píxeles o puntos que cruzan una línea y 480 líneas hacia abajo. Una resolución más alta permite la presentación de más información en pantalla. Actualmente, la resolución máxima apoyada es de 1800 x 1440, lo cual representa una notable mejora sobre la resolución de un televisor de 320 x 525.
Resolución (resolution)
La resolución debe ser apropiada además al tamaño del monitor; es normal que un monitor de 14" ó 15" no ofrezca 1280x1024 puntos, mientras que es el mínimo exigible a uno de 17" o superior.
La siguiente tabla ilustra este tema:
Tamaño monitor | Resolución máxima exigible (no entrelazada) | Resolución de trabajo recomendada |
14" | 1024x768 (monitores nuevos) | 640x480 |
15" | 1024x768 | 800x600 |
17" | 1280x1024 | 1024x768 |
19" | 1600x1200 | 1152x864 |
21" | 1600x1200 | 1280x1024 |
Como cambiar la resolución del monitor.
Paso 1. En cualquier parte del escritorio que no tenga iconos, haz click con el botón derecho de tu ratón.
Paso 2. En el menú que te sale, selecciona la opción de abajo, que dice "Propiedades" y haz click ahí con el botón izquierdo.
Paso 3. En la pantalla que te sale, hay una ficha que dice "Configuración", haz click en ella
Paso 4. En la siguiente pantalla, en la parte de abajo hay una barra que se puede mover, muévela hasta donde te diga 800 por 600 píxeles. Después haz click en aceptar, y va a suceder alguna de estas dos opciones:
Paso 4a. Te va a salir un cuadro que dice que va a ajustar la resolución del monitor y si no se ve bien, en 15 segundos se va a restablecer, haz click en aceptar (o en "si") y la pantalla parpadeara un instante. Si tu monitor soporta esta resolución, se va a ver todo diferente a como estaba. Te va a salir un cuadro diciendo que si deseas mantener esta configuración, haz click en "Si". Si tu monitor no soporta la resolución se va a ver muy feo y puede ser que hasta se oiga una especie de silbido en el monitor. Para quitarlo, presiona la tecla "ESC" o espera 15 segundos y se quitara solo.
Paso 4b. Te va a salir un cuadro donde dice que necesita reiniciar la maquina para que los cambios tengan efecto. Si haces click en "Si" la maquina se va a apagar y encender nuevamente ya con los cambios si tu monitor soporta la resolución. Si das click en no, vas a segur trabajando, pero cuando la apagues y vuelvas a encender, tomara los cambios.
Si cuando la maquina reinicie se ve feo o no se ve nada, es que tu monitor no soporto la resolución. Para arreglarlo, haz lo siguiente:
* Reinicia la maquina (presionando el botón "Reset" del CPU)
* Cuando este arrancando, antes de que te ponga la pantalla de Windows 9x o ME, presiona la tecla F8 varias veces y rápido, para que entre a un menú.
* En este menú, selecciona la opción "A prueba de fallos" o "A prueba de errores". La maquina va iniciar como siempre, aunque se va a tardar mas de lo normal y en cada esquina va a decir "A prueba de fallos". Si tienes instalado Windows ME, 2000 o XP, te va a salir una pantalla de ayuda cuando entre, ciérrala solo dando click en la "X" de arriba a la derecha.
* Vuelve a hacer los Pasos del 1 al 5, pero en lugar de seleccionar 800 por 600 píxeles, selecciona 640 por 480 píxeles, y haz click en aceptar.
* Te va a pedir que reinicies la maquina, haz click en "SI" y la maquina reiniciara y ya se tiene que ver normal.
Controles de ajuste.
Todos los monitores incluyen unos mandos o botones de ajuste, pero los que hemos sufrido un monitor viejo hemos visto como se nos ha ido achicando la pantalla sin poder remediarlo; por eso, cuantos más controles mejor. Aquí enunciamos algunos de los imprescindibles y los más útiles, aunque hay que recordar que algunos de ellos solamente los encontraremos en monitores de gama alta y de un mínimo de 17''.
* BRILLO y CONTRASTE.
* TAMAÑO y POSICION de la imagen. Muchos monitores antiguos no incluían el ajuste de tamaño horizontal de la pantalla.
* CONTROL DE EFECTO COJIN: evita el estrechamiento o ensanchamiento en el centro.
* CONTROL DE ROTACION: para evitar que la imagen esté más cerca del borde por un lado que por otro.
* CONTROL DE CONVERGENCIA: Cuando la convergencia de un monitor falla, las imágenes parecen tener como una sombra, debido a que los tres haces de electrones no están alineados. Si el monitor no tiene este control para corregirlo, debemos devolver el monitor como defectuoso.
* AJUSTE DE TRAPEZIO: cuando la imagen está desplazada hacia un lado en la parte superior o inferior.
* AJUSTE DE TEMPERATURA DE COLOR: para ajustar la tonalidad del color blanco.
* AJUSTE DE PUREZA DEL COLOR: para conseguir que un mismo color tenga una tonalidad uniforme en toda la pantalla.
* CONTROL DE EFECTO MOIRE: da la sensación de que se desplazan unas olas por la pantalla.
Muchos monitores llevan el calificativo de DIGITALES, pero no debemos engañarnos, pues en un monitor de 14'' o 15'' barato, lo único digital son los controles o potenciómetros, con OSD (presentación de menús en pantalla), pero no el monitor. Un monitor digital se caracteriza por poder memorizar no sólo las frecuencias de refresco para cada resolución de acuerdo con la tarjeta gráfica, sino también los ajustes de pantalla. Además, cuando cambiamos la resolución se les puede oir emitir un característico chasquido que nos indica el ajuste del módulo digital.
Refresco de pantalla.
También llamada Frecuencia de Refresco Vertical. Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en hertzios y debe estar por encima de 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.
Antiguamente los monitores sólo podían presentar imágenes con unos refrescos determinados y fijos, por ejemplo los monitores CGA o EGA y algunos VGA; hoy en día todos los monitores son multiscan, es decir, que pueden presentar varios refrescos dentro de un rango determinado.
Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por lo que debemos conocer sus capacidades a fondo, para lo cual lo mejor es leer con detenimiento el manual o mirar otro parámetro denominado Frecuencia Horizontal, que debe ser lo mayor posible, entre unos 30 a 80 KHz. Por ejemplo, un monitor en que la frecuencia horizontal sea de 30 a 65 KHz dará sólo 60 Hz a 1600x1200 puntos, mientras que uno en que sea de 30 a 90 dará 75 o más.
Tamaño de punto (dot pitch) y cómo afecta la imagen de un monitor.
Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.
Lo mínimo exigible en este momento es que sea de 0,28 mm, no debiéndose admitir nada superior como no sea en monitores de gran formato para presentaciones, donde la resolución no es tan importante como el tamaño de la imagen.
Para CAD o en general usos a alta resolución debe ser menor de 0,28 mm, idealmente de 0,25 mm (o menos).
Mientras menor es la densidad de puntos o de rayas, mejor será la presentación. Las imágenes se ven más finas y tienen mayor contraste cuando es menor la densidad de puntos. Las puntas y las líneas parecen más suaves y refinadas.
¿Cuál es la diferencia entre una máscara de sombra y una rejilla de apertura?
La máscara CRT es un componente principal del tubo de figura. Existen dos tipos principales de máscaras CRT (Tubo de rayos catódicos): la máscara de sombra y la rejilla de apertura, también conocida como máscara de rayas. Ambos tipos de monitor producen una excelente calidad de imagen. La rejilla de apertura presenta imágenes más brillantes y sus colores son más ricos y saturados. Por otra parte, una máscara de sombra ofrece mayor precisión en la presentación de pantalla, sienta ésta última típicamente de un diseño plano y cuadrado que permite a la imagen dimensiones más veraces. Las mejores máscaras de sombra son producidas con INVAR, un tipo de metal de aleación altamente resistente al calor, el cual permite un uso prolongado sin distorsión.
La selección entre máscara de sombra y rejilla de apertura se reduce a las preferencias del usuario y a las aplicaciones que éste le va a dar a su monitor. Para aplicaciones gráficas, tales como edición electrónica de textos, suele ser preferible la tecnología de rejilla de apertura, dada su capacidad para presentar colores más vívidos. No obstante, los ingenieros que trabajan con CAD/CAM y otros que hacen ilustraciones técnicas pueden preferir la tecnología de máscara de sombra para obtener la precisión en los dibujos y una mejor presentación plana.
Atte. OBOLITOS
La Impresora
En los comienzos de las computadoras personales, alguien predijo que estas harían realidad aquel sueño antiguo de "la oficina sin papeles".
A más de una década de la revolución de las PC, podemos afirmar que el que hizo aquella predicción se equivocó. Hoy en día los papeles siguen existiendo en las oficinas y casi en igual cantidad, solo que cumplen diferentes funciones. Las impresoras surgen con la necesidad de llevar al papel los resultados que se obtenían de las computadoras, como por ejemplo para hacer informes a la gerencia de la empresa.
Lo primero que se necesitó fue velocidad y facilidad de impresión. Los gráficos fueron el próximo gran salto, dando fin a los papeles repletos de textos y textos. Luego se aplicó el color y hoy en día se suma un factor muy importante para los tiempos que vivimos, "la economía". Las últimas investigaciones buscan impresoras de bajo costo y consumo, a fin de poder llegar a toda empresa u hogar que las precise.
Objetivos de la impresora
- Conocer su concepto y definición de la impresora
- Saber el inicio y su historia de la primera impresora que salio al mercado
- Conocer e identificar los distintos tipos de impresoras
- Conocer las características básicas de las impresoras
- Identificar y saber sobre impresoras
¿Qué es una impresora ?
Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos como el papel.
Historia de la impresora
La historia de la impresora se puede remontar junto con la creación de la primera computadora, la máquina analítica de Charles Babbage, a pesar de que el inventor nunca logró construir su PC, sí terminó los planos en los que se incluía el mecanismo de impresión. En 1950 llega la primera impresora eléctrica para computadoras, sin embargo solo era capaz de imprimir textos. Siete años más tarde se desarrolla la impresión por matriz de puntos, pero contaba con las mismas limitaciones que su antecesor. En 1959 Xerox fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a color, fabricada por Canon. En 1978 se crea la impresora de margarita, que únicamente podía escribir letras y números, pero tenía la calidad de una máquina de escribir.
Finalmente en 1980 aparece la impresora láser en blanco y negro, 8 años más tarde le implementan la modalidad de color.
Partes de una impresora
FUNCIONAMIENTO DE LAS IMPRESORAS LASER
La impresión láser se basa enteramente en la interacción electrostática, el mismo fenómeno que produce que un plástico atraiga trozos de papel tras ser frotado con una prenda de fibra.
Impresora láser |
Para comprender la impresión electrostática, basta saber que las cargas eléctricas pueden ser positivas o negativas, y que las cargas de signo opuesto se atraen, mientras que las cargas de igual signo se repelen.
En primer lugar, se carga negativamente toda la superficie de un tambor fotosensible, del tamaño de una hoja. Acto seguido, se hace avanzar el tambor línea a línea, y un láser recorre horizontalmente cada línea, ayudado por un espejo giratorio (en otras palabras, se produce un proceso de barrido). El láser incide en los puntos donde la tinta se deberá fijar, invirtiendo la carga (que ahora será positiva). El láser se desconecta en los lugares donde no deberá aparecer tinta (quedando con carga negativa). Por tanto, tras recorrer todo el tambor, solo habrá cargas positivas en los puntos donde deberá depositarse tinta, mientras que el resto (lo que constituirá el fondo blanco del papel) queda cargado negativamente. En otras palabras, se ha conseguido crear una imagen electrostática de la hoja a imprimir, mediante cargas positivas sobre un fondo de cargas negativas.
Puntos cargados positivamente
Los puntos cargados positivamente en el tambor atraen partículas de tóner (material electronegativo mezclado con un pigmento que lo dota de color). Por tanto, la imagen final queda "dibujada" sobre el tambor por medio de puntos negros de tóner.
El papel a imprimir se carga positivamente en su totalidad. Por tanto, al hacerlo pasar por el tambor, atraerá a las partículas de tóner (que tienen carga negativa), y la imagen quedará finalmente formada sobre papel. Finalmente, el tóner adherido al papel se funde mediante la aplicación de calor, haciendo que quede totalmente fijado al papel. Se consigue así imprimir una página en una sola pasada, al contrario que en las impresoras de inyección de tinta, donde la página se imprime línea a línea. Antes de imprimir una nueva página, se realiza un borrado electrostático del tambor, dejándolo preparado para un nuevo ciclo.
Impresoras con diodos emisores de luz
Existe otra variante de las impresoras láser en las que no es necesario un proceso de barrido. En lugar de un láser y un sistema de espejos se dispone de una hilera de diodos emisores de luz (Láser-LED). Por ejemplo, en una impresora de 300 ppp, habrá una hilera de LED cubriendo una línea completa del papel, a razón de 300 LED por pulgada. Sólo se encienden, para cada línea, aquellos diodos que corresponden a puntos donde deberá aplicarse tóner. Este proceso se repite línea a línea hasta procesar el tambor completo. Se produce el mismo efecto que con un barrido láser, pero de forma más rápida.
Toners de colores |
Tecnología con diodos de cristal líquido
Otra variante emplea diodos de cristal líquido (LCD) en lugar de LED. Estos conforman un material que es transparente u opaco según el nivel de tensión eléctrica que se le aplica. Se forzarán al estado transparente aquellos cristales correspondientes a los puntos donde deba aplicarse tóner, manteniendo el resto de diodos en estado opaco. Por otra parte, se aplica una lámpara halógena que ilumina todos los cristales, y sólo pasa luz a través de los diodos en estado transparente, invirtiendo la carga en el tambor.
Ventajas e inconvenientes de la impresión láser
Las impresoras láser son mucho más rápidas que las impresoras de inyección de tinta. Además, están dotadas de una mayor precisión en la colocación de puntos sobre el papel. También economizan tinta, ya que depositan la cantidad de tóner necesaria, sin exceder ese límite. El tóner no es caro en comparación con los cartuchos de tinta y, además, es mucho más duradero, lo que resulta rentable en el entorno de una oficina, donde se imprimen gran cantidad de documentos diariamente. Como desventaja principal, el precio de estas impresoras es muy elevado en comparación con las impresoras de inyección de tinta.
El Ratón de la Nueva Era
Recibir y controlar la entrada del mouse es un aspecto importante de cada aplicación para Windows. Se pueden controlar los eventos del mouse para realizar una acción en la aplicación o utilizar la información de ubicación del mouse para realizar comprobaciones de visitas u otras acciones. Además, puede cambiar el modo en que los controles de la aplicación controlan la entrada del mouse. Este tema describe con detalle estos eventos del mouse y cómo obtener y cambiar la configuración del sistema para el mouse. Para obtener más información sobre los datos proporcionados mediante los eventos del mouse y el orden en que se producen los eventos clic del mouse, vea Eventos del mouse (ratón) en formularios Windows Forms.
El primer Mouse de la historia
Se desarrollo hace más de 40 años, en 1964. Fue un equipo de la Universidad de Stanford quienes desde un principio, ante la base ancha y el cable largo que se asemejaba a la cola de un roedor, decidieron llamarlo Mouse (ratón en inglés). Ahora, con el avance de la tecnología, seguimos teniendo ratones en la mano, pero sin cola, los inalámbricos.
Pasos de funcionamiento de un Mouse mecánico
- Cuando se arrastra el Mouse la bola gira.
- Este arrastre que hacemos con el Mouse genera que se muevan las ruedas encoder.
- Estas ruedas están unidos a los discos a los discos de codificación óptica que tienen la apariencia opaca, se les reconoce porque son circulares y están perforadas alrededor.
- Que gracias a su posición, pueden dejar pasar o caso contrario interrumpir los rayos infrarrojos que es emitido por un led.
- Aquí viene lo fantástico, estos pulsos al ser captados por unos sensores, estos lo convierten en velocidades horizontales y verticales; esto significa que logra dar con las coordenadas que registra el movimiento exacto que realizo el Mouse.
Vista de la bola de goma por la parte inferior del Mouse
-
Por experiencia propia les comento que yo reemplace mi Mouse mecánico por un Óptico y la verdad que lo supera en todo y me solucionó varios problemas en cuanto a la suciedad y al momento de direccionar algún LINK es más rápido y no muevo mucho la mano ya que eso me generaba dolores en la muñeca al estar constantemente sufriendo al darle un clic a un determinado link con el mecánico, peor era cuando trataba de seleccionar algún segmento
o párrafo para diversos motivos , bueno creo que todos hemos pasado por eso y les recomiendo los que aún no realizan el cambio respectivo, háganlo ya que no se arrepentirán, sobre todo por que les ahorrará tiempo.
Cabe señalar que también hay ya en el mercado Mouse Óptico que adicionalmente tienen una rueda saliente en el centro de los botones que facilitan el movimiento para loas cuatro direcciones comunes. Veamos en el siguiente gráfico como son:
- Mouse Óptico: Este tipo de Mouse se diferencia del anterior en que no usa la famosa bola de goma y en vez de esa bola utiliza sensores ópticos como un sistema de refracción y el halo de la luz roja que para eso utilizan leds, que en los cuales con su encendido fuerte o bajo indican la intensidad del movimiento y detectan hacia donde se realiza el movimiento. Se le considera como unos de los Mouse mas modernos y que es más fácil su manejo y además soluciona un gran problema que tenía el Mouse mecánico en cuanto a la suciedad que se impregnaba en la bola de goma.
- Mouse Láser: Aquí ya estamos hablando de un equipo muy sensible, que se diferencia del anterior en que en vez de sensores ópticos tienen un motor de captura de movimiento, que trabaja con un láser.
Usted se habrá preguntado, ¿Cómo es que no puedo ver el Láser?, lo que pasa es que este láser es invisible al ojo humano. Pero hay otro detalle que este Mouse al aumentar la precisión también aumenta su sensibilidad. Veamos el gráfico siguiente:
Por Conexión:
-
En este gráfico lo que se trata de mostrar con un aumentador
de tamaño es mostrar un conector normal que se conecta
a un puerto en serie.
En el siguiente gráfico se muestra un Mouse con un conector USB,
propios de un Mouse Láser y Óptico.
- Mouse con cables : Estos tipos de Mouse se caracterizan por tener cable de conexión, son los más comunes y por tanto relativamente cómodos en el precio. Relativo porque depende de que tipo de Mouse estamos hablando, ya que con un Mouse láser y Óptico vienen con unos conectores especiales ya sean USB o PS/2, además se conectan mediante puerto paralelos que hacen que su precio varíe considerablemente. Pero hay que tener presente que siguen existiendo Mouse con conexión por puerto serie, pero téngalo por seguro que estos ya entrarán al recuerdo. Su uso es básicamente para juegos y trabajos de computación gráfica o afines, ya que sobre todo se facilita su movimiento.
- Mouse Inalámbrico: Este tipo de Mouse no utiliza cables de conexión con el ordenador. Sólo utiliza un receptor que se conecta al ordenador generalmente por un puerto USB, en este receptor se dá el punto de concentración de la señal inalámbrica que es producida
por el Mouse, gracias a esta señal es que reconoce cualquier movimiento del Mouse. Especialmente su uso se amolda para las laptop y donde no se requiere de mucho espacio para su traslado. Pero cabe recalcar que para casos generales obviamente es mucho mejor utilizar esto, pero creo que no seria necesario ya que esto no es su objetivo y además por su costo que demanda.
Que quede claro que la finalidad de un Mouse inalámbrico es su portabilidad, además que en cuanto a su funcionalidad es la misma que las otras.
Mouse Inalámbrico
Bueno he tratado de ser puntual, pero cabe resaltar unas cuantas observaciones:
- Pareciera un problema para los zurdos la estructura del Mouse, pero no es así; sólo tiene que configurar su Mouse y cambiar o invertir la prioridad de los botones.
- Además este dispositivo esta en riesgo de extinción debido a que están saliendo unas pantallas táctiles, pero tendrían que mejorar mucho estas pantallas en cuanto a esta tecnología ya que se ha demostrado por el momento que no son cómodos para trabajar.
- También podemos observar que el problema del Mouse es especialmente la suciedad que se impregna a la hora de moverlo, pero esto se dá más en cuanto a los Mouse mecánicos y se están solucionando con los nuevos Mouse que están saliendo ya sean inalámbrico o láser.
- Pueden variar en modelos pero la esencia del Mouse es la misma en todos sus tipos.
- Que el uso del Mouse lo visualizamos en la pantalla del monitor como un puntero, que tiene la forma de una flechita, doble flechita y al hacerle clic a cualquier link se acompaña con unas copitas que señalan espera, cargando, etc. Para Que quede claro este mostraremos una tabla con su descripción:
En sí el Mouse a pesar de ser un dispositivo pequeño es un tema bastante grande en cuanto a sus aplicaciones y estructura.
martes, 8 de junio de 2010
Aquiles o Ulises, vos elegís.
Y si solo sos un loco que se dió cuenta que el tiempo es poco, y las necesidades las dejás de lado por las ganas de vivir. Y si los años acumulados en anaqueles y cajones archivados, no resultan más que polvo y ácaros, ideas de boca y ojos tapados determinadas a salir . Y tu cabeza incendia todo lo hasta hora conocido, la portada, la rutina, el sistema lo que creias haber vivido, sacandole el jugo a lo extremo, dejando de lado lo aburrido. Y si te arden los pies y te tiemblan las manos, las metáforas de la vida se transforman en rituales paganos y del azar te toca partir. Dejate llevar por el impulso abandonando la inersia, saltá al vacio sin red, sin dolencia. Aferrate a tu propia locura, abrazá fuerte esa histérica cordura que te inundó en la oscuridad de la tormenta, y ahora, inmaculada y etérea, fria pero a la vez rizueña, se burla de tu inmaduréz y en el ojo del huracán te dejó. Mirame. Desde arriba sublime y omnipotente cerrá los ojos y entregate. Ver o Sentir.
Por SI, las dudas.
Yo creo que los sueños son ideas. en los sueños uno "habla" pero enrealidad creo que no esta diciendo palabra por palabra como creemos ver, solo queda grabado en la mente como si fuera asi , porque realmente uno tiene la idea de haber "visto" a "alguien" hablando, pero eso puede llevar el tiempo que la acción tarda, o solo un segundo o capás toda la noche. Son ideas, por eso a menos que el sueño consista especial mente en hablar un idioma, lo que manejan mas de una lengua nunca se dan cuenta en que idioma soñaron, porque "Helo" y "Hola" significan lo mismo al ser analizadas.
No CREO encontrar razon para asustarme; pero por algo existe la palabra "creo". TALVÉZ tenga miedo al "sé"; pero igualmente seguimos en el mismo circulo vicioso. Enserio me gustaria que me disculpes si ofendo con pensamientos sordos o palabras calladas. Pero tambien existe una probabilidad, un por ahí, como el creo, como el talvés, de que sea poco, o mucho de lo raro. Cosas que no se apresian en reflejos, miradas de tentación pero ojos cerrados. Me cuesta entender que alguien me entienda, pero me gusta cuando pasa. Quién define raro? Raro es ausencia de normalidad o presencia absoluta?. No se, pero si me fuera otorgado el saber, sin lugar a dudas raro es una totalidad, incomprendida o "inexplicada", que no es lo mismo que inexplicable.