lunes, 5 de julio de 2010

Sistemas Operativos

¿Qué es un Sistema Operativo?
• Un Sistema Operativo (SO) es el software básico de una computadora que provee una interfaz entre el resto de programas del ordenador, los dispositivos hardware y el usuario.
• Las funciones básicas del Sistema Operativo son administrar los recursos de la máquina, coordinar el hardware y organizar archivos y directorios en dispositivos de almacenamiento.
• Los Sistemas Operativos más utilizados son Dos, Windows, Linux y Mac Algunos SO ya vienen con un navegador integrado, como Windows que trae el navegador Internet Explorer.
Definición de Sistema Operativo
El sistema operativo es el programa (o software) más importante de un ordenador. Para que funcionen los otros programas, cada ordenador de uso general debe tener un sistema operativo. Los sistemas operativos realizan tareas básicas, tales como reconocimiento de la conexión del teclado, enviar la información a la pantalla, no perder de vista archivos y directorios en el disco, y controlar los dispositivos periféricos tales como impresoras, escáner, etc.
En sistemas grandes, el sistema operativo tiene incluso mayor responsabilidad y poder, es como un policía de tráfico, se asegura de que los programas y usuarios que están funcionando al mismo tiempo no interfieran entre ellos. El sistema operativo también es responsable de la seguridad, asegurándose de que los usuarios no autorizados no tengan acceso al sistema.
Clasificación de los Sistemas Operativos
Los sistemas operativos pueden ser clasificados de la siguiente forma:
• Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.
• Multiprocesador: soporta el abrir un mismo programa en más de una CPU.
• Multitarea: Permite que varios programas se ejecuten al mismo tiempo.
• Multitramo: Permite que diversas partes de un solo programa funcionen al mismo tiempo.
• Tiempo Real: Responde a las entradas inmediatamente. Los sistemas operativos como DOS y UNIX, no funcionan en tiempo real.
Cómo funciona un Sistema Operativo
Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.
Cómo se utiliza un Sistema Operativo
Un usuario normalmente interactúa con el sistema operativo a través de un sistema de comandos, por ejemplo, el sistema operativo DOS contiene comandos como copiar y pegar para copiar y pegar archivos respectivamente. Los comandos son aceptados y ejecutados por una parte del sistema operativo llamada procesador de comandos o intérprete de la línea de comandos. Las interfaces gráficas permiten que utilices los comandos señalando y pinchando en objetos que aparecen en la pantalla.

sábado, 3 de julio de 2010

viernes, 2 de julio de 2010

UNIX

¿Qué es Unix?
Es un sistema operativo portable, multitarea y multiusuario; desarrollado en 1969 por un grupo de empleados de los laboratorios Bell y AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas Mcllroy. Este sistema es uno de los más utilizados y con más futuro debido a que son muchos organismos oficiales y particulares los que defienden su utilización, así como muchas firmas de fabricación y comercialización de computadoras que lo incorporan en sus productos. Para dar un ejemplo, la Comunidad Económica Europea, impone el sistema operativo UNIX en todas las aplicaciones que se desarrollan bajo sus auspicios.
Unix es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos periféricos conectados a la máquina. Además es un sistema multiusuario, en el que existe la portabilidad para la implementación de distintas computadoras.


Introducción
Unix se trata de un sistema operativo de los mas utilizados y con mas futuro debido a que son muchos organismos oficiales y particulares los que defienden su utilización, así como muchas firmas de fabricación y comercialización de computadoras que lo incorporan en sus productos. Podemos citar el ejemplo de la Comunidad Económica Europea, que impone el sistema operativo UNIX en todas las aplicaciones que se desarrollan bajo sus auspicios.
Unix es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios. Permite a los usuarios correr sus programas. Controla los dispositivos de periféricos conectados a la máquina. Además es un sistema multiusuario, en el que existe la portabilidad para la implementación de distintas computadoras.
Esta formado por una serie de elementos que pueden representarse en forma de capas concéntricas donde, en primer lugar, alrededor del hardware, aislando a este de los usuarios, además de adaptar el resto del sistema operativo a la maquina debido a la portabilidad que existe en el mismo.
- Es un sistema operativo de tiempo compartido, controla los recursos de una computadora y los asigna entre los usuarios.
- Permite a los usuarios correr sus programas.
- Controla los dispositivos de periféricos conectados a la máquina.
- Es un sistema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
- Está escrito en un lenguaje de alto nivel: C.
- El sistema de ficheros está basado en la idea de volúmenes, que se pueden montar y desmontar para lo que se les asigna un nodo del árbol como punto de anclaje. Un sistema físico puede dividirse en uno o más volúmenes.
- Una de las grandes ideas de UNIX es la unificación y compatibilidad de todos los procesos de entrada y salida. Para UNIX, el universo es un sistema de ficheros. De esta forma existe compatibilidad entre ficheros, dispositivos, procesos, "pipes" y "sockets".
- Dispone de un lenguaje de control programable llamado "Shell".
- El sistema presenta comandos de usuario (es decir, a nivel de "Shell") para iniciar y manipular procesos concurrentes asíncronos. Un usuario puede ejecutar varios procesos, intercambiarlos e interconectarlos a través de "pipes" o "tuberías", simbolizados por un carácter especial. En DOS, también existe la idea del "pipe", sin embargo, al no existir concurrencia de procesos, no se trata de una comunicación en "tiempo real", sino de un paso de información a través de ficheros temporales.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software.
- Emplea manejo dinámico de memoria por intercambio o paginación.
- El núcleo de UNIX es relativamente compacto en comparación con otros sistemas de tiempo compartido. Introduce la idea de reducir el tamaño del "kernel" y ceder ciertas funciones a programas externos al núcleo llamados "demonios". Esto ha sido muy desarrollado y en la actualidad, la tendencia es el desarrollo de "micro-kernels", sin embargo UNIX, aunque pionero, es anterior a estos desarrollos.
- Tiene capacidad de interconexión y comunicaciones de procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos. En este sistema de ficheros jerárquico todo se encuentra anclado en la raíz. La mayoría de la literatura sobre el tema dice que el sistema de ficheros UNIX es un grafo acíclico, sin embargo, la realidad es que se trata de un grafo cíclico. El DOS, por ejemplo, es un árbol, con un directorio raíz del que cuelgan subdirectorios que a su vez son raíces de otros sub-árboles. Un grafo cíclico es como un árbol en el que se pueden enlazar nodos de niveles inferiores con un nivel superior. Es decir, se puede entrar en un subdirectorio y aparecer más cerca de la raíz de lo que se estaba.
- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.
- UNIX realiza un riguroso control de acceso a ficheros. Cada uno se encuentra protegido por una secuencia de bits. Sólo se permite el acceso global al "root" o "superusuario". Por tanto, el universo de usuarios de UNIX se encuentra dividido en dos grupos principales, no sólo para el acceso a ficheros sino para todas las actividades: el "root", todopoderoso, para el que no hay barreras; y el resto de los usuarios, controlados por el S.O. según las directivas del "root".
- UNIX es un S.O. de red, algo que a veces se confunde con un S.O. distribuido. Por ello, se ha incluido en su núcleo la arquitectura de protocolos de internet, TCP/IP.
2.3 Desventajas de Unix
Las desventajas del mismo pueden variar entre versiones, así como también por diversas condicionantes externas, tales como: el área de uso (personal, comercial o industrial), experticia del usuario, funcionalidad específica de las aplicaciones, entre otras. En general se podría decir que:
- Desde el punto de vista comercial, no muchas personas lo conocen, ya que no es un sistema que venga precargado en cada PC que se compra. En otras palabras, no están popular como Windows o incluso como Linux, y por tanto, es difícil encontrar los programas que se acostumbran a usar en esos otros sistemas operativos.
- Desde el punto de vista de funcionalidad, el S.O. Unix vienen en muchas variantes como se sabe, sin embargo, el detalle es que hay variantes que están diseñadas para ser ejecutada en equipos especiales fabricados por una marca especifica, como IBM, SUN, HP, DELL, entre otras. Lo que limita un tanto la portabilidad de UNIX
- En cuanto a la confiabilidad, UNIX fue desarrollado desde sus inicios para ser más estable que cualquier otro sistema operativo, es decir, que cuando se usa UNIX no es tan común ver ciertas pantallas de errores que salen en los otros S.O, aunque si se podrán dar casos en que hay computadores con sistemas UNIX en desuso, pero será por problemas de Hardware o de algún otro programa que trabaje mal.
- A pesar de ser tan estable y no "caerse" prácticamente nunca, resulta ser muy costoso en el sentido de mantenimiento y administración. Es decir, que por ejemplo, hay empresas que pierden más dinero con un equipo fuera de línea que pagando a un administrador del sistema (que cobra mucho por su trabajo a razón de que no muchas personas conocen UNIX).
- El S.O UNIX puede requerir más horas de aprendizaje que el resto de las otras plataformas de sistemas operativos.
- Como ya se menciono antes, los problemas suelen ser más difíciles de resolver dado el poco apoyo y soporte que hay en el mercado y, normalmente, el soporte del fabricante es muy costoso.
- Se utiliza un lenguaje de programación muy avanzado: C, aunque en algunos casos permite Fortran y Java.
Filosofía de UNIX

Las ideas principales de UNIX fueron derivadas del proyecto MULTICS (Multiplexed Information and Computing Service) del MIT y de General Electric. Estas ideas son:
• Todo se maneja como cadena de bytes: Los dispositivos periféricos, los archivos y los comandos pueden verse como secuencias de bytes o como entes que las producen. Por ejemplo, para usar una terminal en UNIX se hace a través de un archivo (generalmente en el directorio /dev y con nombre ttyX).
• Manejo de tres descriptores estándares: Todo comando posee tres descriptores por omisión llamados 'stdin', 'stdout' y 'stderr', los cuales son los lugares de donde se leen los datos de trabajo, donde se envían los resultados y en donde se envían los errores, respectivamente. El 'stdin' es el teclado, el 'stdout' y el 'stderr' son la pantalla por omisión (default).
• Capacidades de 'entubar' y 'redireccionar': El 'stdin', 'stdout' y el 'stderr' pueden usarse para cambiar el lugar de donde se leen los datos, donde se envían los resultados y donde se envían los errores, respectivamente. A nivel comandos, el símbolo de 'mayor que' (>) sirve para enviar los resultados de un comando a un archivo. Por ejemplo, en UNIX el comando 'ls' lista los archivos del directorio actual (es lo mismo que 'dir' en DOS). Si en vez de ver los nombres de archivos en la pantalla se quieren guardar en el archivo 'listado', el redireccionamiento es útil y el comando para hacer la tarea anterior es 'ls > listado'. Si lo que se desea es enviar a imprimir esos nombres, el 'entubamiento' es útil y el comando sería 'ls | lpr', donde el símbolo "|" ( pipe) es el entubamiento y 'lpr' es el comando para imprimir en UNIX BSD.
• Crear sistemas grandes a partir de módulos: Cada instrucción en UNIX está diseñada para poderse usar con 'pipes' o 'redireccionamiento', de manera que se pueden crear sistemas complejos a través del uso de comandos simples y elegantes. Un ejemplo sencillo de esto es el siguiente. Suponga que se tienen cuatro comandos separados A,B,C y D cuyas funcionalidades son:

o A: lee matrices checando tipos de datos y formato.
o B: recibe matrices, las invierte y arroja el resultado en forma matricial.
o C: recibe una matriz y le pone encabezados 'bonitos'
o D: manda a la impresora una matriz cuidando el salto de página, etc.
Como se ve, cada módulo hace una actividad específica, si lo que se quiere es un pequeño sistema que lea un sistema de ecuaciones y como resultado se tenga un listado 'bonito', simplemente se usa el entubamiento para leer con el módulo A la matriz, que su resultado lo reciba el B para obtener la solución, luego esa solución la reciba el módulo C para que le ponga los encabezados 'bonitos' y finalmente eso lo tome el módulo D y lo imprima, el comando completo sería ' A | B | C | D '.
Conclusión
Unix es un sistema operativo apropiado para muchas aplicaciones, ya que ofrece muchas facilidades para proceso de textos (en un marco atractivo para programadores) y facilidades de comunicación entre usuarios y máquinas.
Unix es popular debido a que:
• Es portátil, y por lo tanto, todo el software desarrollado en él es portátil también.
• Se puede cambiar de máquina sin cambiar de sistema operativo ni de aplicaciones.
• Es fácil de adaptar según los requerimientos del usuario.
• Es muy fiable.
• Es fácil de usar.
• Tiene una amplia gama de utilidades.
Desde el punto de vista técnico, UNIX se refiere a una familia de sistemas operativos que comparten unos criterios de diseño e interoperabilidad en común. Esta familia incluye más de 100 sistemas operativos desarrollados a lo largo de 20 años. No obstante, es importante señalar que esta definición no implica necesariamente que dichos sistemas operativos compartan código o cualquier propiedad intelectual.

DOS



El DOS, de las siglas en inglés de Disk Operating System, es una familia de sistemas operativos para PC.

Fue creado originalmente para computadoras de la familia IBM PC, que utilizaban los procesadores Intel 8086/8088 de 16 bits, siendo el primer sistema operativo popular para esta plataforma.


MS-DOS se desarrolló a partir de QDOS, Quick and Dirty Operating System, también conocido como 86-DOS. Su desarrollo se inició oficialmente en 1981 y fue lanzado en 1982 como MS-DOS 1.0. Tuvo ocho versiones principales y alcanzó gran difusión pero fue gradualmente reemplazado por sistemas operativos que ofrecían una interfaz gráfica de usuario (GUI), en particular, por varias generaciones del sistema operativo Microsoft Windows.

Microsoft detuvo su desarrollo en el año 2000.

Mac

Mac OS (del inglés Macintosh Operating System, en español Sistema Operativo de Macintosh) es el nombre del sistema operativo creado por Apple para su línea de computadoras Macintosh. Es conocido por haber sido el primer sistema dirigido al gran público en contar con una interfaz gráfica compuesta por la interacción del mouse con ventanas, Icono y menús.

Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de su línea Macintosh procurando que la máquina resultara más agradable al usuario, diferenciándolo de otros sistemas contemporáneos, como MS-DOS, que eran un desafío técnico. El equipo de desarrollo del Mac OS original incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.


Esta fue la base del Mac OS clásico, desarrollado íntegramente por Apple, cuya primera versión vio la luz en 1984. Su desarrollo se extendería en un modelo progresivo hasta la versión 9 del sistema, lanzada en 1999. A partir de Mac OS X, el sistema es un derivado de Unix que mantiene en su interfaz gráfica muchos elementos de las versiones anteriores.


La historia del Sistema Operativo Mac

Sistema 1
El Sistema 1 tenía escritorio, ventanas, iconos, mouse, menús y scrollbars.

El basurero “Trash” funcionaba como un tobogán de basura, todo desaparecía luego de reiniciar el ordenador, no se podía trabajar en dos aplicaciones al mismo tiempo, solo en una, ya que la memoria virtual no existía.

En el Sistema 1 era imposible crear un folder dentro de otro folder, de hecho todos los archivos eran guardados en la misma dirección del disco, se creaba una nota en la tabla de archivos para que cada archivo estuviera en su respectivo folder y así el Finder podría parecer como que el archivo estaba en su folder.

Luego el Sistema 1.1 agregó la caja de avisos de diálogo, también el comando para limpiar tu Mac y algunos implementos para la velocidad.


Sistema 7
El Sistema 7 fue el gran cambio de software para esta época, se eliminó el Finder y el Finder múltiple. El Sistema 7 ya sólo tenía el Finder múltiple permitiendo hacer muchas tareas simultáneamente.

La memoria también tuvo un gran cambio a 32b, esto permitió a las Macs usar mas de 8 MB de Ram, en el sistema operativo, esto fue también implementado en el Sistema 7.

El Networking por Apple Talk y compartir archivos por AppleShare fue agregado al sistema operativo, como opción adicional. El software QuickTime multimedia también fue trabajado en este sistema, pero estaba disponible como un software extra. El Sistema 7 agregó muchas características que iban a ser construidas en el nuevo sistema Mac OS X.

Un menú fue agregado en la parte inferior derecha del Dashboard, que mostraba la lista de los programas que estaban siendo utilizados en ese momento y permitía a los usuarios cambiarse entre ellos. Luego de la aplicación de menú fue agregado el menú de “Ayuda”, el “basurero” fue cambiado a un verdadero folder permitiendo eliminar los archivos hasta que se seleccionaba la opción de “Vaciar” el basurero.

Fue implementada la opción de arrastrar que permitía llevar un texto de un programa a otro sin necesidad de copiar y pegar. En el Sistema 7 el buscador finalmente tomo una ventaja en los objetos con color, haciendo que los elementos en la interfaz se vieran como en 3D.


Mac OS 9
La opción de tener varios usuarios en una Mac fue agregada en esta versión, permitía a los usuarios ingresar y tener sus propias configuraciones. AppleTalk sobre TCP/IP fue también implementado.

Software Update permitía a los usuarios tener las actualizaciones de softwares fuera de Internet, y podía informar a los usuarios de las nuevas actualizaciones cuando ellos salían.

•Mac OS 9.0.2 y 9.0.3, llegaron con sus modelos específicos, Mac OS 9.0.4 unificó todo nuevamente y es la única versión del Classic Mac OS compatible con el Entorno Classic del Mac OS X Public Beta.
•Mac OS 9.1, agregó estabilidad y la ventana de menú. Esto es lo mínimo del Classic en Mac OS X 10.0 y 10.1.
•Mac OS 9.2, estaba disponible como pre-instalación del sistema iniciando con “Quicksilver” Power Mac G4s lanzado en el verano del 2001.


2003: Mac OS X 10.3 “Panther”
Mac OS X v10.3 “Panther” se lanzó el 24 de octubre de 2003. Además de tener un rendimiento mucho mayor, incorporó la mayor actualización en la interfaz de usuario, y muchas mejoras que Jaguar el año anterior. Esta versión ya no era compatible en los antiguos modelos G3.

Algunas de las mejoras de esta versión es que el Finder fue actualizado e incorpora una interfaz metálica y búsqueda rápida. Exposé permitía una nueva forma de manipular ventanas, también incorporo el Cambio Rápido de Usuarios, que permite tener sesiones con diferentes usuarios abiertas al mismo tiempo y pasar de una a otra rápidamente.

Ahora esta nueva versión incluía soporte integrado de fax. FileVault era un Sistema de cifrado en tiempo real del directorio privado de cada usuario. Incrementaba velocidad en todo el sistema con un mayor soporte para los G5.

Mac OS X 10.5 “Leopard”
Mac OS X v10.5 “Leopard” es lanzada hoy 26 de Octubre de 2007. Esta versión es compatible con las PowerPC y con la nueva tecnología Intel. Entre las características de la nueva versión encontramos:

•Time Machine: da la posibilidad de poder volver en el tiempo a una versión especifica de los contenidos de una carpeta, del disco duro completo, de un sólo archivo, de un rollo de fotos en iPhoto, etc.
•Mail 3: es la tercera versión de este programa de correo electrónico de Apple ahora incluye Notas y To-Dos así como variados Templates para enviar email HTML.
•iChat: da la posibilidad de chatear con tabs o de tener iconos animados, ahora también se tiene muchas funciones adicionales para los vídeochats. Desde presentar vídeos, compartir el escritorio, etc.
•El Dashboard: trae una herramienta llamada Dashcode para crear Widgets fácilmente. Adicionalmente Safari tiene un botón “Webclip” que permite tomar cualquier fragmento de una página que se esté viendo y convertirla en un Widget. Accesibilidad, se crearon mejoras en las funciones de accesibilidad para que “todos puedan usar un Mac”.
•El Finder: ahora con CoverFlow similar al de iTunes, tiene una función denominada QuickLook la cual permite abrir varios archivos a la vez con diferentes extensiones y no hay necesidad de abrir el programa, incluso los usuarios podrán hacer búsquedas en otras Mac conectadas en red.
•El Dock: parece una bandeja de vidrio que recibe reflejos, cuenta con un stacks que permite apilar una serie de elementos y cuando se hace clic sobre él se despliegan en un abanico de opciones.
La mayor de ellas siendo un gran avance en las funciones de texto-a-voz con una nueva voz sintetizada llamada Alex, que incluso puede hablar claramente a altas velocidades. Además, trae soporte para pantallas Braille.

Ventajas:
• mejor interfaz grafica del mercado
• Ideal para diseño grafico.
• Es muy estable
Desventajas:
• Costoso (aunque viene incluido con la maquina)
• Existe poco software para este sistema operativo.
• Es más complicado encontrar gente que la pueda arreglar en caso de fallas.

Windows



Windows
En sus primeras versiones sólo era un programa funcionando en el sistema operativo MS-DOS. Su primera versión, Windows 1.0, salió en 1985 y la última versión como programa fue la 3.x de gran popularidad en 1990.

El gran salto lo dio cuando se convirtió en un sistema operativo con el nombre de Windows 95, con grandes mejoras y una gran campaña publicitaria. Luego le sucedieron versiones más o menos populares como Windows 98, ME, XP, Vista, etc.

Desde el principio el sistema operativo fue muy cuestionado por muchas personas por su baja seguridad y la competencia desleal y monopólica que ejercía Microsoft, aprovechando la popularidad del sistema.


Desde su versión Windows 95, Microsoft se ha convertido en al empresa dominante en los sistemas de computadoras junto con los microprocesadores de Intel, esta unión es llamada coloquialmente Wintel.
Ventajas:
• Es más conocido
• Es el que tiene más software desarrollado…
Desventajas:
• El costo es muy alto
• Las nuevas versiones requieren muchos recursos
• La mayoria de los virus estan echos para win
• Puedes tener errores de compatibilidad en sistemas nuevos.
• Historicamente es más inestable de los 3

lunes, 28 de junio de 2010

video- Reportaje - Sistemas Operativos

Linux


LINUX
Es un sistema operativo descendiente de UNIX. Unix es un sistema operativo robusto, estable, multiusuario, multitarea, multiplataforma y con gran capacidad para gestión de redes, Linux fue creado siguiendo estas características. En la década de los ochenta apareció un nuevo sistema, era una versión básica y reducida de Unix llamada Minix, su autor fue Andrew Tanenbaum, el objetivo era crear un acceso a este sistema sin tener que pagar licencias, basados en este sistema el señor Linus B. Torvalds, a mediados de 1991 empezó a trabajar en un proyecto para mejorar las deficiencias de Minix, Torvalds creo la primera versión de Linux (Contracción de Linus y Unix) numerada como versión 0.01.
LINUX es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de los sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente. El sistema lo forman el núcleo del sistema (kernel) mas un gran numero de programas / librerías que hacen posible su utilización.
Linux es libre, flexible, gratuito, configurable, eficiente, no requiere hardware caro, no obliga a cambiar continuamente la versión del software.
Linux requiere mas conocimientos de informática, no hay sustituto directo para todas las aplicaciones, algunos dispositivos de última generación no están soportados (cada vez son menos).Linux es un software menos comercial por lo cual es menos utilizado ya que como es gratuito la mayoría de usuarios no le tienen toda la confianza.Linux no es una excepción, solo que en relación a Windows es mucho menos vulnerable.

Ventajas:
• El mejor costo del mercado, gratuito o un precio simbolico por el cd.
• Tienes una enorme cantidad de software libre para este sistema
• Mayor estabilidad por algo lo usan en servidores de alto rendimiento
• Entorno grafico (beryl) mejor que el aero de windows…
• Existen distribuciones de linux para diversos tipos de equipo, hasta para maquinas de 64 bits.
• Las vulneralidades son detectadas y corregidas más rapidamente que cualquier otro sistema operativo.
Desventajas:
• Para algunas cosas debes de saber usar unix
• La mayoria de los ISP no dan soporte para algo que no sea windows (ignorantes).
• No Existe mucho software comercial.
• Muchos juegos no corren en linux.

lunes, 14 de junio de 2010

Micro-Procesadores

Microprocesador

Microchip más importante en una computadora, es considerado el cerebro de una computadora. Está constituido por millones de transistores integrados. Este dispositivo se ubica en un zócaloplaca madre y dispone de un sistema de enfriamiento (generalmente un ventilador).
Lógicamente funciona como la unidad central de procesos (CPU), que está constituida por registros, la unidad de control y la unidad aritmético-lógica. En el microprocesador se procesan todas las acciones de la computadora.
Su "velocidad" es medida por la cantidad de operaciones por segundo que puede realizar: la frecuencia de reloj. La frecuencia de reloj se mide en MHz (megahertz) o gigahertz (GHz).
También dispone de una memoria caché (medida en kilobytes), y un ancho de bus (medido en bits).El primer microprocesador comercial fue el Intel 4004, presentado el 15 de noviembre de 1971. Actualmente las velocidad de procesamiento son miles de veces más grandes que los primeros microprocesadores. También comienzan a integrarse múltiples procesadores para ampliar la capacidad de procesamiento. Se estima que para 2010 vendrán integrados hasta 80 núcleos en un microprocesador, son llamados procesadores multi-core.

especial en la

Historia de los primeros microprocesadores

Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, siendo la compañía pionera en el campo de la fabricación de estos productos, y que actualmente cuenta con más del 90 por ciento del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el que desde aquel 4004 hasta el actual Pentium II hemos visto pasar varias generaciones de máquinas que nos han entretenido y nos han ayudado en el trabajo diario.

Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia dónde vamos, en lugar de en dónde hemos estado. Por ello, no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos quince años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011 utilizaremos procesadores cuyo reloj irá a una velocidad de 10 GHz (10.000 MHz), contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, que permitirá realizar tareas nunca antes pensadas.


Los inicios

Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del año 1971 hasta el actual Pentium II del presente año ha llovido mucho en el campo de los procesadores. Tanto, que no estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer procesador 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 KHz (sí, habéis leído bien, kilohertzios), disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.

Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altair, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades, en lo que suponía la aparición del primer ordenador que la gente podía comprar, y no ya simplemente utilizar.

La introducción de IBM

Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 8086 y 8088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortune" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 8086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. En cuanto al procesador 8088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.

En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo.

Microsoft también juega

El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo conocíamos unos pocos. Windows vino a ser un soplo de aire fresco para la industria, pues permitió que personas de cualquier condición pudiera manejar un ordenador con unos requerimientos mínimos de informática.

Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del coste para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.

Llega el Pentium

Sin embargo, Intel no se quedó contemplando la gran obra que había creado, y rápidamente anunció que en breve estaría en la calle una nueva gama de procesadores que multiplicaría de forma general por cinco los rendimientos medios de los 80486. Se trataba de los Pentium, conocidos por P5 en el mundillo de la informática mientras se estaban desarrollando, y de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Esto era debido a que otras compañías dedicadas a la producción de procesadores estaban utilizando los mismos nombres puesto que no se podía registrar una cadena de ellos como marca, y por lo tanto, eran de dominio público. De modo que a Intel no le quedó más remedio que ponerle una palabra a su familia de procesadores, que además, con el paso del tiempo, se popularizó en los Estados Unidos de tal forma, que era identificada con velocidad y potencia en numerosos cómics y programas de televisión. Estos procesadores que partían de una velocidad inicial de 60 MHz, han llegado hasta los 200 MHz, algo que nadie había sido capaz de augurar unos años antes.

Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio (ver recuadro explicativo). Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium, hasta el punto que en este momento quien no posea un procesador de este tipo, está seriamente atrasado y no puede trabajar con garantías con los programas que actualmente hay en el mercado. Algo que ha venido a demostrar la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hace sin sacar el máximo partido de sus funciones.

Pentium Pro y Pentium II

La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un aire nuevo, tal y como ocurriera con el Pentium en el ámbito doméstico. La potencia de este nuevo procesador no tenía comparación hasta entonces, gracias a la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como es la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que en principio no tiene muchos visos de saltar al mercado doméstico, puesto que los procesadores Pentium MMX parecen cubrir de momento todas las necesidades en este campo. No podemos asegurar que en un futuro cercano esto no acabe ocurriendo, pues en el mundo de la informática han sucedido las cosas más extrañas, y nunca se sabe por dónde puede tirar un mercado en constante evolución.

Una evolución que demostró Intel hace muy poco con un nuevo procesador, denominado Pentium II, que viene a ser simplemente un nuevo ingenio que suma las tecnologías del Pentium Pro con el MMX. Como resultado, el Pentium II es el procesador más rápido de cuantos ha comercializado Intel. Por el momento únicamente se dispone de las versiones a 233 y 266 MHz, pero después de este verano podremos disfrutar de la versión de 300 MHz, que supondrá un nuevo récord de velocidad de reloj. El Pentium II, cuyas características fueron tratadas con detalle en el artículo de portada del pasado mes de la revista, es hoy (por poco tiempo) el extremo de la cadena evolutiva de Intel.

El futuro de los microprocesadores

La evolución que están sufriendo los procesadores es algo que no parece escapar a la atención de millones de personas, cuyo trabajo depende de hasta dónde sean capaces de llegar los ingenieros de Intel a la hora de desarrollar nuevos chips. El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de procesador. Esto va a significar varias cosas en un futuro no muy lejano. Para empezar, la velocidad se incrementará una media del 33 por ciento con respecto a la generación de anterior. Es decir, el mismo procesador usando esta nueva tecnología puede ir un 33 por ciento más rápido que el anterior. Para que os podáis hacer una idea del tamaño de esta tecnología, deciros que el valor de 0.25 micras es unas 400 veces más pequeño que un pelo de cualquier persona. Y este tamaño es el que tienen los transistores que componen el procesador. El transistor, como muchos sabréis, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad, pero se ajusta a ella más o menos). Dicha corriente eléctrica circula entre dos puntos, de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar pues el tiempo de paso es menor. Aunque estamos hablando de millonésimas de segundo, tened en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo bastante importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos incluso utilizando el mismo procesador. Por el momento, en un futuro cercano además de contar con la arquitectura de 0.25 micras, podremos disfrutar de duna de 0.07 para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores y alcanzando una velocidad de reloj cercana a los 10000 MHz, es decir, 10 GHz.

La tecnología MMX

Aunque no podamos considerar la tecnología MMX como un procesador en sí mismo, sería injusto no hablar de ella en un informe como éste. Es uno de los mayores pasos que ha dado Intel en la presente década, y según ellos mismos, todos los procesadores que fabriquen a partir de mediados del próximo año llevarán incorporada esta arquitectura. Para su desarrollo se analizaron un amplio rango de programas para determinar el funcionamiento de diferentes tareas: algoritmos de descompresión de vídeo, audio o gráficos, formas de reconocimiento del habla o proceso de imágenes, etc. El análisis dio como resultado que numerosos algoritmos usaban ciclos repetitivos que ocupaban menos del 10% del código del programa, pero que en la práctica suponían el 90% del tiempo de ejecución. De modo que nació la tecnología MMX, compuesta por 57 instrucciones y 4 tipos de datos nuevos, que se encargan de realizar esos trabajos cíclicos consumiendo mucho menos tiempo de ejecución. Antes, para manipular 8 bytes de datos gráficos requería 8 repeticiones de la misma instrucción; ahora, con la nueva tecnología, se puede utilizar una única instrucción aplicada a los 8 bytes simultáneamente, obteniendo de este modo un incremento del rendimiento de 8x.



El Monitor

El monitor es el principal periférico de salida de una computadora. Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.

La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel.

Clasificación según estándares de monitores

Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes.

Monitores MDA:

Monitor  MDALos monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.

Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios.

Características:

  • Sin modo gráfico.
  • Resolución 720_350 píxeles.
  • Soporte de texto monocromático.
  • No soporta gráfico ni colores.
  • La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
  • Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

Monitor CGA:

Monitor  CGALos monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM.

A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.

Características:

  • Resoluciones 160_200, 320×200, 640×200 píxeles.
  • Soporte de gráfico a color.
  • Diseñado principalmente para juegos de computadoras.
  • La tarjeta gráfica contenía 16 KB de memoria de vídeo.

Monitor EGA:

Monitor  EGAPor sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.

EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características.

Características:

  • Resolución de 640_350 píxeles.
  • Soporte para 16 colores.
  • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Monitor VGA:

Monitor  VGALos monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.

Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas.

Características:

  • Soporte de 720×400 píxeles en modo texto.
  • Soporte de 640×480 píxeles en modo gráfico con 16 colores.
  • Soporte de 320×200 píxeles en modo gráfico con 256 colores.
  • Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

Monitor SVGA:

Monitor  SVGASVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.

SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

Características:

  • Resolución de 800×600, 1024_768 píxeles y superiores.
  • Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.

Clasificación según tecnología de monitores

En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.

Monitores CRT:

Monitor  CRTEstá basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.

Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.

Funcionamiento:

Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.

Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.

Ventajas:

  • Excelente calidad de imagen (definición, contraste, luminosidad).
  • Económico.
  • Tecnología robusta.
  • Resolución de alta calidad.

Desventajas:

  • Presenta parpadeo por el refrescado de imagen.
  • Consumo de energía.
  • Generación de calor.
  • Generación de radiaciones eléctricas y magnéticas.
  • Alto peso y tamaño.

Pantallas LCD:

Pantallas LCDA este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.

Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.

Funcionamiento:

El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez.

Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no.

Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul.

Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.

Ventajas:

  • Poco peso y tamaño.
  • Buena calidad de colores.
  • No contiene parpadeo.
  • Poco consume de energía.
  • Poca generación de calor.
  • No genera radiaciones eléctricas y magnéticas.

Desventajas:

  • Alto costo.
  • Angulo limitado de visibilidad.
  • Brillo limitado.
  • Bajo tiempo de respuesta de píxeles.
  • Contiene mercurio.

Pantallas Plasma:

Pantallas PlasmaLa pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.

Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad.


Funcionamiento:

El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.

Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.

El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible.

Ventajas:

  • Excelente brillo.
  • Alta resolución.
  • Amplio ángulo de visión.
  • No contiene mercurio.
  • Tamaño de pantalla elevado.

Desventajas:

  • Vida útil corta.
  • Coste de fabricación elevado, superior a los LCD.
  • Consumo de electricidad elevado.
  • Poca pureza del color.
  • Consumo energético y emisión de calor elevada.

¿Qué es la resolución de pantalla?

Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (“X”), el cual se coloca al principio y el número de filas (“Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:

Resolución de monitores

Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo.

¿Qué es el monitor?

El monitor es una parte integral de cada sistema de computación. Son nuestro enlace visual con todas las aplicaciones y se han convertido en un componente vital para determinar la calidad global y el confort de nuestro sistema de computación.

Cómo se mide el tamaño de la pantalla.

El tamaño de la pantalla es la medida del tubo de figura, tomada diagonalmente de una esquina a otra. Los fabricantes publican los tamaños de pantalla visualizables, además del tamaño de los tubos de rayos catódicos (CRT) en sus monitores. El tamaño CRT es el tamaño real del tubo de figura. El tamaño de pantalla visualizable es la superficie útil de la pantalla. Debido a que el tubo de figura se encuentra dentro del revestimiento plástico, el tamaño de pantalla visualizable es ligeramente menor que el tamaño de CRT o el tamaño real de la pantalla. Dicha medida generalmente viene expresada en pulgadas cuya equivalencia es 1 pulgada = 2,54 centímetros.

Cómo se presentan los colores en los monitores a 'Monitor'
color.

El color es creado de la misma forma en los televisores y en los monitores. El interior del CRT está revestido de fósforo y brilla al ser impactado por un haz de electrones.

Fósforos de tres colores primarios se utilizan en el revestimiento del interior del CRT: rojo, verde y azul. Estos tres colores son combinados en diferentes intensidades para producir todos los colores disponibles. Por ejemplo, si se activan todos los tres colores (rojo, verde y azul) producen el blanco.

Cómo funciona un monitor a color .

Dentro de un monitor a color se encuentra un Tubo de Rayos Catódicos (CRT), también conocido como tubo de figura. El CRT tiene un ensamblaje de disparo de electrones, una máscara y una pantalla de vidrio revestida de fósforos a color en su parte interna. Al ser activado, el dispositivo de disparo de electrones dispara haces de electrones. La máscara protege y dirige los haces hacia el fósforo específico, el cual ilumina o brilla sobre el haz de electrones que hace impacto en él.

Por qué es importante la resolución.

La resolución se refiere a la densidad de la imagen en la pantalla. La resolución se expresa al estilo de un enorme crucigrama: el número de puntos o de elementos de imagen (píxel) que cruzan una línea, multiplicado por el número de líneas horizontales. Una pantalla VGA de 640 x 480 tiene 640 píxeles o puntos que cruzan una línea y 480 líneas hacia abajo. Una resolución más alta permite la presentación de más información en pantalla. Actualmente, la resolución máxima apoyada es de 1800 x 1440, lo cual representa una notable mejora sobre la resolución de un televisor de 320 x 525.

Resolución (resolution)

La resolución debe ser apropiada además al tamaño del monitor; es normal que un monitor de 14" ó 15" no ofrezca 1280x1024 puntos, mientras que es el mínimo exigible a uno de 17" o superior.

La siguiente tabla ilustra este tema:

Tamaño monitor

Resolución máxima exigible (no entrelazada)

Resolución de trabajo recomendada

14"

1024x768 (monitores nuevos)

640x480

15"

1024x768

800x600

17"

1280x1024

1024x768

19"

1600x1200

1152x864

21"

1600x1200

1280x1024

Como cambiar la resolución del monitor.

Paso 1. En cualquier parte del escritorio que no tenga iconos, haz click con el botón derecho de tu ratón.

Paso 2. En el menú que te sale, selecciona la opción de abajo, que dice "Propiedades" y haz click ahí con el botón izquierdo.

'Monitor'

Paso 3. En la pantalla que te sale, hay una ficha que dice "Configuración", haz click en ella

'Monitor'

Paso 4. En la siguiente pantalla, en la parte de abajo hay una barra que se puede mover, muévela hasta donde te diga 800 por 600 píxeles. Después haz click en aceptar, y va a suceder alguna de estas dos opciones:

'Monitor'

Paso 4a. Te va a salir un cuadro que dice que va a ajustar la resolución del monitor y si no se ve bien, en 15 segundos se va a restablecer, haz click en aceptar (o en "si") y la pantalla parpadeara un instante. Si tu monitor soporta esta resolución, se va a ver todo diferente a como estaba. Te va a salir un cuadro diciendo que si deseas mantener esta configuración, haz click en "Si". Si tu monitor no soporta la resolución se va a ver muy feo y puede ser que hasta se oiga una especie de silbido en el monitor. Para quitarlo, presiona la tecla "ESC" o espera 15 segundos y se quitara solo.

Paso 4b. Te va a salir un cuadro donde dice que necesita reiniciar la maquina para que los cambios tengan efecto. Si haces click en "Si" la maquina se va a apagar y encender nuevamente ya con los cambios si tu monitor soporta la resolución. Si das click en no, vas a segur trabajando, pero cuando la apagues y vuelvas a encender, tomara los cambios.

Si cuando la maquina reinicie se ve feo o no se ve nada, es que tu monitor no soporto la resolución. Para arreglarlo, haz lo siguiente:

* Reinicia la maquina (presionando el botón "Reset" del CPU)

* Cuando este arrancando, antes de que te ponga la pantalla de Windows 9x o ME, presiona la tecla F8 varias veces y rápido, para que entre a un menú.

* En este menú, selecciona la opción "A prueba de fallos" o "A prueba de errores". La maquina va iniciar como siempre, aunque se va a tardar mas de lo normal y en cada esquina va a decir "A prueba de fallos". Si tienes instalado Windows ME, 2000 o XP, te va a salir una pantalla de ayuda cuando entre, ciérrala solo dando click en la "X" de arriba a la derecha.

* Vuelve a hacer los Pasos del 1 al 5, pero en lugar de seleccionar 800 por 600 píxeles, selecciona 640 por 480 píxeles, y haz click en aceptar.

* Te va a pedir que reinicies la maquina, haz click en "SI" y la maquina reiniciara y ya se tiene que ver normal.

Controles de ajuste.

Todos los monitores incluyen unos mandos o botones de ajuste, pero los que hemos sufrido un monitor viejo hemos visto como se nos ha ido achicando la pantalla sin poder remediarlo; por eso, cuantos más controles mejor. Aquí enunciamos algunos de los imprescindibles y los más útiles, aunque hay que recordar que algunos de ellos solamente los encontraremos en monitores de gama alta y de un mínimo de 17''.

* BRILLO y CONTRASTE.
* TAMAÑO y POSICION de la imagen. Muchos monitores antiguos no incluían el ajuste de tamaño horizontal de la pantalla.
* CONTROL DE EFECTO COJIN: evita el estrechamiento o ensanchamiento en el centro.
* CONTROL DE ROTACION: para evitar que la imagen esté más cerca del borde por un lado que por otro.
* CONTROL DE CONVERGENCIA: Cuando la convergencia de un monitor falla, las imágenes parecen tener como una sombra, debido a que los tres haces de electrones no están alineados. Si el monitor no tiene este control para corregirlo, debemos devolver el monitor como defectuoso.
* AJUSTE DE TRAPEZIO: cuando la imagen está desplazada hacia un lado en la parte superior o inferior.
* AJUSTE DE TEMPERATURA DE COLOR: para ajustar la tonalidad del color blanco.
* AJUSTE DE PUREZA DEL COLOR: para conseguir que un mismo color tenga una tonalidad uniforme en toda la pantalla.
* CONTROL DE EFECTO MOIRE: da la sensación de que se desplazan unas olas por la pantalla.

Muchos monitores llevan el calificativo de DIGITALES, pero no debemos engañarnos, pues en un monitor de 14'' o 15'' barato, lo único digital son los controles o potenciómetros, con OSD (presentación de menús en pantalla), pero no el monitor. Un monitor digital se caracteriza por poder memorizar no sólo las frecuencias de refresco para cada resolución de acuerdo con la tarjeta gráfica, sino también los ajustes de pantalla. Además, cuando cambiamos la resolución se les puede oir emitir un característico chasquido que nos indica el ajuste del módulo digital.

Refresco de pantalla.

También llamada Frecuencia de Refresco Vertical. Se puede comparar al número de fotogramas por segundo de una película de cine, por lo que deberá ser lo mayor posible. Se mide en hertzios y debe estar por encima de 60 Hz, preferiblemente 70 u 80. A partir de esta cifra, la imagen en la pantalla es sumamente estable, sin parpadeos apreciables, con lo que la vista sufre mucho menos.

Antiguamente los monitores sólo podían presentar imágenes con unos refrescos determinados y fijos, por ejemplo los monitores CGA o EGA y algunos VGA; hoy en día todos los monitores son multiscan, es decir, que pueden presentar varios refrescos dentro de un rango determinado.

Quien proporciona estos refrescos es la tarjeta gráfica, pero quien debe presentarlos es el monitor. Si ponemos un refresco de pantalla que el monitor no soporta podríamos dañarlo, por lo que debemos conocer sus capacidades a fondo, para lo cual lo mejor es leer con detenimiento el manual o mirar otro parámetro denominado Frecuencia Horizontal, que debe ser lo mayor posible, entre unos 30 a 80 KHz. Por ejemplo, un monitor en que la frecuencia horizontal sea de 30 a 65 KHz dará sólo 60 Hz a 1600x1200 puntos, mientras que uno en que sea de 30 a 90 dará 75 o más.

Tamaño de punto (dot pitch) y cómo afecta la imagen de un monitor.

'Monitor'
Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color resulta fundamental a grandes resoluciones. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones.

Lo mínimo exigible en este momento es que sea de 0,28 mm, no debiéndose admitir nada superior como no sea en monitores de gran formato para presentaciones, donde la resolución no es tan importante como el tamaño de la imagen.

Para CAD o en general usos a alta resolución debe ser menor de 0,28 mm, idealmente de 0,25 mm (o menos).

Mientras menor es la densidad de puntos o de rayas, mejor será la presentación. Las imágenes se ven más finas y tienen mayor contraste cuando es menor la densidad de puntos. Las puntas y las líneas parecen más suaves y refinadas.

¿Cuál es la diferencia entre una máscara de sombra y una rejilla de apertura?

La máscara CRT es un componente principal del tubo de figura. Existen dos tipos principales de máscaras CRT (Tubo de rayos catódicos): la máscara de sombra y la rejilla de apertura, también conocida como máscara de rayas. Ambos tipos de monitor producen una excelente calidad de imagen. La rejilla de apertura presenta imágenes más brillantes y sus colores son más ricos y saturados. Por otra parte, una máscara de sombra ofrece mayor precisión en la presentación de pantalla, sienta ésta última típicamente de un diseño plano y cuadrado que permite a la imagen dimensiones más veraces. Las mejores máscaras de sombra son producidas con INVAR, un tipo de metal de aleación altamente resistente al calor, el cual permite un uso prolongado sin distorsión.

La selección entre máscara de sombra y rejilla de apertura se reduce a las preferencias del usuario y a las aplicaciones que éste le va a dar a su monitor. Para aplicaciones gráficas, tales como edición electrónica de textos, suele ser preferible la tecnología de rejilla de apertura, dada su capacidad para presentar colores más vívidos. No obstante, los ingenieros que trabajan con CAD/CAM y otros que hacen ilustraciones técnicas pueden preferir la tecnología de máscara de sombra para obtener la precisión en los dibujos y una mejor presentación plana.

Atte. OBOLITOS

La Impresora


En los comienzos de las computadoras personales, alguien predijo que estas harían realidad aquel sueño antiguo de "la oficina sin papeles".

A más de una década de la revolución de las PC, podemos afirmar que el que hizo aquella predicción se equivocó. Hoy en día los papeles siguen existiendo en las oficinas y casi en igual cantidad, solo que cumplen diferentes funciones. Las impresoras surgen con la necesidad de llevar al papel los resultados que se obtenían de las computadoras, como por ejemplo para hacer informes a la gerencia de la empresa.

Lo primero que se necesitó fue velocidad y facilidad de impresión. Los gráficos fueron el próximo gran salto, dando fin a los papeles repletos de textos y textos. Luego se aplicó el color y hoy en día se suma un factor muy importante para los tiempos que vivimos, "la economía". Las últimas investigaciones buscan impresoras de bajo costo y consumo, a fin de poder llegar a toda empresa u hogar que las precise.

Objetivos de la impresora

  • Conocer su concepto y definición de la impresora
  • Saber el inicio y su historia de la primera impresora que salio al mercado
  • Conocer e identificar los distintos tipos de impresoras
  • Conocer las características básicas de las impresoras
  • Identificar y saber sobre impresoras

¿Qué es una impresora ?

Una impresora es un periférico de computadora que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos como el papel.

Historia de la impresora

La historia de la impresora se puede remontar junto con la creación de la primera computadora, la máquina analítica de Charles Babbage, a pesar de que el inventor nunca logró construir su PC, sí terminó los planos en los que se incluía el mecanismo de impresión. En 1950 llega la primera impresora eléctrica para computadoras, sin embargo solo era capaz de imprimir textos. Siete años más tarde se desarrolla la impresión por matriz de puntos, pero contaba con las mismas limitaciones que su antecesor. En 1959 Xerox fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a color, fabricada por Canon. En 1978 se crea la impresora de margarita, que únicamente podía escribir letras y números, pero tenía la calidad de una máquina de escribir.

Finalmente en 1980 aparece la impresora láser en blanco y negro, 8 años más tarde le implementan la modalidad de color.

Partes de una impresora

FUNCIONAMIENTO DE LAS IMPRESORAS LASER

La impresión láser se basa enteramente en la interacción electrostática, el mismo fenómeno que produce que un plástico atraiga trozos de papel tras ser frotado con una prenda de fibra.

impresora laser
Impresora láser

Para comprender la impresión electrostática, basta saber que las cargas eléctricas pueden ser positivas o negativas, y que las cargas de signo opuesto se atraen, mientras que las cargas de igual signo se repelen.

En primer lugar, se carga negativamente toda la superficie de un tambor fotosensible, del tamaño de una hoja. Acto seguido, se hace avanzar el tambor línea a línea, y un láser recorre horizontalmente cada línea, ayudado por un espejo giratorio (en otras palabras, se produce un proceso de barrido). El láser incide en los puntos donde la tinta se deberá fijar, invirtiendo la carga (que ahora será positiva). El láser se desconecta en los lugares donde no deberá aparecer tinta (quedando con carga negativa). Por tanto, tras recorrer todo el tambor, solo habrá cargas positivas en los puntos donde deberá depositarse tinta, mientras que el resto (lo que constituirá el fondo blanco del papel) queda cargado negativamente. En otras palabras, se ha conseguido crear una imagen electrostática de la hoja a imprimir, mediante cargas positivas sobre un fondo de cargas negativas.

Puntos cargados positivamente

Los puntos cargados positivamente en el tambor atraen partículas de tóner (material electronegativo mezclado con un pigmento que lo dota de color). Por tanto, la imagen final queda "dibujada" sobre el tambor por medio de puntos negros de tóner.

El papel a imprimir se carga positivamente en su totalidad. Por tanto, al hacerlo pasar por el tambor, atraerá a las partículas de tóner (que tienen carga negativa), y la imagen quedará finalmente formada sobre papel. Finalmente, el tóner adherido al papel se funde mediante la aplicación de calor, haciendo que quede totalmente fijado al papel. Se consigue así imprimir una página en una sola pasada, al contrario que en las impresoras de inyección de tinta, donde la página se imprime línea a línea. Antes de imprimir una nueva página, se realiza un borrado electrostático del tambor, dejándolo preparado para un nuevo ciclo.

Impresoras con diodos emisores de luz

Existe otra variante de las impresoras láser en las que no es necesario un proceso de barrido. En lugar de un láser y un sistema de espejos se dispone de una hilera de diodos emisores de luz (Láser-LED). Por ejemplo, en una impresora de 300 ppp, habrá una hilera de LED cubriendo una línea completa del papel, a razón de 300 LED por pulgada. Sólo se encienden, para cada línea, aquellos diodos que corresponden a puntos donde deberá aplicarse tóner. Este proceso se repite línea a línea hasta procesar el tambor completo. Se produce el mismo efecto que con un barrido láser, pero de forma más rápida.

toner para impresoras
Toners de colores

Tecnología con diodos de cristal líquido

Otra variante emplea diodos de cristal líquido (LCD) en lugar de LED. Estos conforman un material que es transparente u opaco según el nivel de tensión eléctrica que se le aplica. Se forzarán al estado transparente aquellos cristales correspondientes a los puntos donde deba aplicarse tóner, manteniendo el resto de diodos en estado opaco. Por otra parte, se aplica una lámpara halógena que ilumina todos los cristales, y sólo pasa luz a través de los diodos en estado transparente, invirtiendo la carga en el tambor.

Ventajas e inconvenientes de la impresión láser

Las impresoras láser son mucho más rápidas que las impresoras de inyección de tinta. Además, están dotadas de una mayor precisión en la colocación de puntos sobre el papel. También economizan tinta, ya que depositan la cantidad de tóner necesaria, sin exceder ese límite. El tóner no es caro en comparación con los cartuchos de tinta y, además, es mucho más duradero, lo que resulta rentable en el entorno de una oficina, donde se imprimen gran cantidad de documentos diariamente. Como desventaja principal, el precio de estas impresoras es muy elevado en comparación con las impresoras de inyección de tinta.