miércoles, 26 de mayo de 2010

Windows 7

Windows 7 es la versión más reciente de Microsoft Windows, línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, "tablet PC", "netbooks" y equipos "media center".[2] El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo entonces confirmada su fecha de venta oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2.[3]

A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT 6.0, lo que permitió el mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era compatible.[4] Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia en mejorar su interfaz para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo en que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido.[5]

Diversas presentaciones dadas por la compañía en el 2008 se enfocaron en demostrar capacidades multitáctiles, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas fácil de usar denominado Grupo en el Hogar,[6] además de grandes mejoras en el rendimiento general del equipo.

lunes, 10 de mayo de 2010

Tipos de virus de computadoras

Tipos de virus de computadoras



En informatica, un virus de computadora es un programa malicioso desarrollado por programadores que infecta un sistema para realizar alguna acción determinada. Puede dañar el sistema de archivos, robar o secuestrar información o hacer copias de si mismo e intentar esparcirse a otras computadoras utilizando diversos medios.
A continuación se detallan los distintos tipos de virus de computadoras hasta ahora conocidos:

Virus de Boot
Uno de los primeros tipos de virus conocido, el virus de boot infecta la partición de inicialización del sistema operativo. El virus se activa cuando la computadora es encendida y el sistema operativo se carga.

Time Bomb
Los virus del tipo "bomba de tiempo" son programados para que se activen en determinados momentos, definido por su creador. Una vez infectado un determinado sistema, el virus solamente se activará y causará algún tipo de daño el día o el instante previamente definido. Algunos virus se hicieron famosos, como el "Viernes 13" y el "Michelangelo".

Lombrices, worm o gusanos
Con el interés de hacer un virus pueda esparcirse de la forma más amplia posible, sus creadores a veces, dejaron de lado el hecho de dañar el sistema de los usuarios infectados y pasaron a programar sus virus de forma que sólo se repliquen, sin el objetivo de causar graves daños al sistema. De esta forma, sus autores tratan de hacer sus creaciones más conocidas en internet. Este tipo de virus pasó a ser llamado gusano o worm. Son cada vez más perfectos, hay una versión que al atacar la computadora, no sólo se replica, sino que también se propaga por internet enviandose a los e-mail que están registrados en el cliente de e-mail, infectando las computadoras que abran aquel e-mail, reiniciando el ciclo.

Troyanos o caballos de Troya
Ciertos virus traen en su interior un código aparte, que le permite a una persona acceder a la computadora infectada o recolectar datos y enviarlos por Internet a un desconocido, sin que el usuario se de cuenta de esto. Estos códigos son denominados Troyanos o caballos de Troya.
Inicialmente, los caballos de Troya permitían que la computadora infectada pudiera recibir comandos externos, sin el conocimiento del usuario. De esta forma el invasor podría leer, copiar, borrar y alterar datos del sistema. Actualmente los caballos de Troya buscan robar datos confidenciales del usuario, como contraseñas bancarias.
Los virus eran en el pasado, los mayores responsables por la instalación de los caballos de Troya, como parte de su acción, pues ellos no tienen la capacidad de replicarse. Actualmente, los caballos de Troya ya no llegan exclusivamente transportados por virus, ahora son instalados cuando el usuario baja un archivo de Internet y lo ejecuta. Práctica eficaz debido a la enorme cantidad de e-mails fraudulentos que llegan a los buzones de los usuarios. Tales e-mails contiene una dirección en la web para que la víctima baje, sin saber, el caballo de Troya, en vez del archivo que el mensaje dice que es. Esta práctica se denomina phishing, expresión derivada del verbo to fish, "pescar" en inglés. Actualmente, la mayoría de los caballos de Troya simulan webs bancarias, "pescando" la contraseña tecleada por los usuarios de las computadoras infectadas.

Hijackers
Los hijackers son programas o scripts que "secuestran" navegadores de Internet, principalmente el Internet Explorer. Cuando eso pasa, el hijacker altera la página inicial del browser e impide al usuario cambiarla, muestra publicidad en pop-ups o ventanas nuevas, instala barras de herramientas en el navegador y pueden impedir el acceso a determinadas webs (como webs de software antivírus, por ejemplo).

Keylogger
El KeyLogger es una de las especies de virus existentes, el significado de los términos en inglés que más se adapta al contexto sería: Capturador de teclas. Luego que son ejecutados, normalmente los keyloggers quedan escondidos en el sistema operativo, de manera que la víctima no tiene como saber que está siendo monitorizada. Actualmente los keyloggers son desarrollados para medios ilícitos, como por ejemplo robo de contraseñas bancarias. Son utilizados también por usuarios con un poco más de conocimiento para poder obtener contraseñas personales, como de cuentas de email, MSN, entre otros. Existen tipos de keyloggers que capturan la pantalla de la víctima, de manera de saber, quien implantó el keylogger, lo que la persona está haciendo en la computadora.

Zombie
El estado zombie en una computadora ocurre cuando es infectada y está siendo controlada por terceros. Pueden usarlo para diseminar virus , keyloggers, y procedimientos invasivos en general. Usualmente esta situación ocurre porque la computadora tiene su Firewall y/o sistema operativo desatualizado. Según estudios, una computadora que está en internet en esas condiciones tiene casi un 50% de chances de convertirse en una máquina zombie, pasando a depender de quien la está controlando, casi siempre con fines criminales.

Virus de Macro
Los virus de macro (o macro virus) vinculan sus acciones a modelos de documentos y a otros archivos de modo que, cuando una aplicación carga el archivo y ejecuta las instrucciones contenidas en el archivo, las primeras instrucciones ejecutadas serán las del virus.
Los virus de macro son parecidos a otros virus en varios aspectos: son códigos escritos para que, bajo ciertas condiciones, este código se "reproduzca", haciendo una copia de él mismo. Como otros virus, pueden ser desarrollados para causar daños, presentar un mensaje o hacer cualquier cosa que un programa pueda hacer.

Nuevos medios
Mucho se habla de prevención contra virus informáticos en computadoras personales, la famosa PC, pero poca gente sabe que con la evolución hoy existen muchos dispositivos que tienen acceso a internet, como teléfonos celulares, handhelds, telefonos VOIP, etc. Hay virus que pueden estar atacando y perjudicando la performance de estos dispositivos en cuestión. Por el momento son casos aislados, pero el temor entre los especialistas en seguridad digital es que con la propagación de una inmensa cantidad de dispositivos con acceso a internet, los hackers se van a empezar a interesar cada vez más por atacar a estos nuevos medios de acceso a internet.También se vio recientemente que los virus pueden llegar a productos electrónicos defectuosos, como pasó recientemente con iPODS de Apple, que traían un "inofensivo" virus (cualquier antivírus lo elimina, antes de que él elimine algunos archivos contenidos en el iPOD).

TIPOS DE RANURAS DE EXPANSION DE UN PC.

TIPOS DE RANURAS DE EXPANSION DE UN PC.

En el tutorial Tarjetas de expansión vimos una serie de tarjetas que se utilizan para comunicar nuestro ordenador con una serie de periféricos.

En este tutorial vamos a ver un punto no menos importante, como es las ranuras de expansión (o slot de expansión) a las que van conectadas estas tarjetas.

Estas tarjetas de expansión, al igual que el resto de componentes de un ordenador, han sufrido una serie de evoluciones acordes con la necesidad de ofrecer cada vez unas prestaciones más altas.

Si bien es cierto que una de las tarjetas que más ha incrementado sus necesidades en este sentido han sido las tarjetas gráficas, no solo son éstas las que cada vez requieren unas mayores velocidades de transferencia.

Vamos a ver las principales ranuras de expansión que se pueden encontrar y su evolución en el tiempo:

Ranuras ISA:



Las ranuras ISA (Industry Standard Architecture) hacen su aparición de la mano de IBM en 1980 como ranuras de expansión de 8bits (en la imagen superior), funcionando a 4.77Mhz (que es la velocidad de pos procesadores Intel 8088).
Se trata de un slot de 62 contactos (31 por cada lado) y 8.5cm de longitud.

Su verdadera utilización empieza en 1983, conociéndose como XT bus architecture.

En el año 1984 se actualiza al nuevo estándar de 16bits, conociéndose como AT bus architecture.



En este caso se trata de una ranura (en realidad son dos ranuras unidas) de 14cm de longitud. Básicamente es un ISA al que se le añade un segundo conector de 36 contactos (18 por cada lado). Estas nuevas ranuras ISA trabajan a 16bits y a 8Mhz (la velocidad de los Intel 80286).

Ranuras EISA:



En 1988 nace el nuevo estándar EISA (Extended Industry Standard Architecture), patrocinado por el llamado Grupo de los nueve (AST, Compaq, Epson, Hewlett-Packard, NEC Corporation, Olivetti, Tandy, Wyse y Zenith), montadores de ordenadores clónicos, y en parte forzados por el desarrollo por parte de la gran gigante (al menos en aquella época) IBM, que desarrolla en 1987 el slot MCA (Micro Channel Architecture) para sus propias máquinas.
Las diferencias más apreciables con respecto al bus ISA AT son:

- Direcciones de memoria de 32 bits para CPU, DMA, y dispositivos de bus master.
- Protocolo de transmisión síncrona para transferencias de alta velocidad.
- Traducción automática de ciclos de bus entre maestros y esclavos EISA e ISA.
- Soporte de controladores de periféricos maestros inteligentes.
- 33 MB/s de velocidad de transferencia para buses maestros y dispositivos DMA.
- Interrupciones compartidas.
- Configuración automática del sistema y las tarjetas de expansión (el conocido P&P).

Los slot EISA tuvieron una vida bastante breve, ya que pronto fueron sustituidos por los nuevos estándares VESA y PCI.

Ranuras VESA:



Movido más que nada por la necesidad de ofrecer unos gráficos de mayor calidad (sobre todo para el mercado de los videojuegos, que ya empezaba a ser de una importancia relevante), nace en 1989 el bus VESA

El bus VESA (Video Electronics Standards Association) es un tipo de bus de datos, utilizado sobre todo en equipos diseñados para el procesador Intel 80486. Permite por primera vez conectar directamente la tarjeta gráfica al procesador.

Este bus es compatible con el bus ISA (es decir, una tarjeta ISA se puede pinchar en una ranura VESA), pero mejora la calidad y la respuesta de las tarjetas gráficas, solucionando el problema de la insuficiencia de flujo de datos que tenían las ranuras ISA y EISA.

Su estructura consistía en una extensión del ISA de 16 bits. Las tarjetas de expansión VESA eran enormes, lo que, junto a la aparición del bus PCI, mucho más rápido en velocidad de reloj y con menor longitud y mayor versatilidad, hizo desaparecer al VESA. A pesar de su compatibilidad con las tarjetas anteriores, en la práctica, su uso se limitó casi exclusivamente a tarjetas gráficas y a algunas raras tarjetas de expasión de memoria.

Ranuras PCI:



En el año 1990 se produce uno de los avances mayores en el desarrollo de los ordenadores, con la salida del bus PCI (Peripheral Component Interconnect).

Se trata de un tipo de ranura que llega hasta nuestros días (aunque hay una serie de versiones), con unas especificaciones definidas, un tamaño menor que las ranuras EISA (las ranuras PCI tienen una longitud de 8.5cm, igual que las ISA de 8bits), con unos contactos bastante más finos que éstas, pero con un número superior de contactos (98 (49 x cara) + 22 (11 x cara), lo que da un total de 120 contactos).

Con el bus PCI por primera vez se acuerda también estandarizar el tamaño de las tarjetas de expansión (aunque este tema ha sufrido varios cambios con el tiempo y las necesidades). El tamaño inicial acordado es de un alto de 107mm (incluida la chapita de fijación, o backplate), por un largo de 312mm. En cuanto al backplate, que se coloca al lado contrario que en las tarjetas EISA y anteriores para evitar confusiones, también hay una medida estándar (los ya nombrados 107mm), aunque hay una medida denominada de media altura, pensada para los equipos extraplanos.

Las principales versiones de este bus (y por lo tanto de sus respectivas ranuras) son:

- PCI 1.0: Primera versión del bus PCI. Se trata de un bus de 32bits a 16Mhz.
- PCI 2.0: Primera versión estandarizada y comercial. Bus de 32bits, a 33MHz
- PCI 2.1: Bus de 32bist, a 66Mhz y señal de 3.3 voltios
- PCI 2.2: Bus de 32bits, a 66Mhz, requiriendo 3.3 voltios. Transferencia de hasta 533MB/s
- PCI 2.3: Bus de 32bits, a 66Mhz. Permite el uso de 3.3 voltios y señalizador universal, pero no soporta señal de 5 voltios en las tarjetas.
- PCI 3.0: Es el estándar definitivo, ya sin soporte para 5 voltios.

Ranuras PCIX:



Las ranuras PCIX (OJO, no confundir con las ranuras PCIexpress) salen como respuesta a la necesidad de un bus de mayor velocidad. Se trata de unas ranuras bastante más largas que las PCI, con un bus de 66bits, que trabajan a 66Mhz, 100Mhz o 133Mhz (según versión). Este tipo de bus se utiliza casi exclusivamente en placas base para servidores, pero presentan el grave inconveniente (con respecto a las ranuras PCIe) de que el total de su velocidad hay que repartirla entre el número de ranuras activas, por lo que para un alto rendimiento el número de éstas es limitado.
En su máxima versión tienen una capacidad de transferencia de 1064MB/s.

Sus mayores usos son la conexión de tarjetas Ethernet Gigabit, tarjetas de red de fibra y tarjetas controladoras RAID SCSI 320 o algunas tarjetas controladoras RAID SATA.

Ranuras AGP:



El puerto AGP (Accelerated Graphics Port) es desarrollado por Intel en 1996 como puerto gráfico de altas prestaciones, para solucionar el cuello de botella que se creaba en las gráficas PCI. Sus especificaciones parten de las del bus PCI 2.1, tratándose de un bus de 32bits.

Con el tiempo has salido las siguientes versiones:

- AGP 1X: velocidad 66 MHz con una tasa de transferencia de 266 MB/s y funcionando a un voltaje de 3,3V.
- AGP 2X: velocidad 133 MHz con una tasa de transferencia de 532 MB/s y funcionando a un voltaje de 3,3V.
- AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas.
- AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.

Se utiliza exclusivamente para tarjetas gráficas y por su arquitectura sólo puede haber una ranura AGP en la placa base.

Se trata de una ranura de 8cm de longitud, instalada normalmente en principio de las ranuras PCI (la primera a partir del Northbridge), y según su tipo se pueden deferenciar por la posición de una pestaña de control que llevan.


Imagen 1 - borde de la placa base a la Izda.


Imagen 2 - borde de la placa base a la Izda.


Imagen 3 - borde de la placa base a la Izda.

Las primeras (AGP 1X y 2X) llevaban dicha pestaña en la parte más próxima al borde de la placa base (imagen 1), mientras que las actuales (AGP 8X compatibles con 4X) lo llevan en la parte más alejada de dicho borde (imagen 2).

Existen dos tipos más de ranuras: Unas que no llevan esta muesca de control (imagen 3) y otras que llevan las dos muescas de control. En estos casos se trata de ranuras compatibles con AGP 1X, 2X y 4X (las ranuras compatibles con AGP 4X - 8X llevan siempre la pestaña de control).

Es muy importante la posición de esta muesca, ya que determina los voltajes suministrados, impidiendo que se instalen tarjetas que no soportan algunos voltajes y podrían llegar a quemarse.

Con la aparición del puerto PCIe en 2004, y sobre todo desde 2006, el puerto AGP cada vez está siendo más abandonado, siendo ya pocas las gráficas que se fabrican bajo este estándar.

A la limitación de no permitir nada más que una ranura AGP en placa base se suma la de la imposibilidad (por diferencia de velocidades y bus) de usar en este puerto sistemas de memoria gráfica compartida, como es el caso de TurboCaché e HyperMemory.

Estructura interna de un disco duro

Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad.

Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micropulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 micropulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).

La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanto más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.



Algunos conceptos
Antes hemos comentado que los discos giran continuamente a gran velocidad; este detalle, la velocidad de rotación, incide directamente en el rendimiento de la unidad, concretamente en el tiempo de acceso. Es el parámetro más usado para medir la velocidad de un disco duro, y lo forman la suma de dos factores: el tiempo medio de búsqueda y la latencia; el primero es lo que tarde el cabezal en desplazarse a una pista determinada, y el segundo es el tiempo que emplean los datos en pasar por el cabezal.

Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm.

Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco).



Algunas curiosidades:
El estándar IDE surgió a raíz de un encargo que la firma Compaq le hizo a la compañía Western Digital. Compaq necesitaba una controladora compatible con el estándar ST506, pero debido a la falta de espacio en el interior de los equipos a los que iba dirigida, ésta debía implementar la circuitería de control en el propio disco duro. Está claro que la necesidad es la madre de la inventiva, ¿verdad?

En antiguos discos duros (sobre todo MFM) era imprescindible, antes de apagar el equipo para moverlo de sitio, ejecutar una utilidad especial para "aparcar" las cabezas de la unidad. Con esta operación se depositaban los cabezales en una zona segura del disco, de forma que no pudieran dañar la superficie del disco en caso de movimientos o vibraciones. En la actualidad este proceso lo realiza la unidad de forma automática al ser desconectada (podéis comprobar cómo al apagar el PC, durante un segundo se ilumina el led del disco duro), y no se concibe un disco duro que no incluya esta característica.

Formatear un disco duro IDE a bajo nivel puede ser perjudicial para el mismo. Durante el proceso, que el fabricante realiza en sus instalaciones antes de sacarlo al público, se graban en él las marcas de direcciones y los números de sector. Volver a realizar este proceso en circunstancias o con software no apropiados, puede dañar definitivamente la unidad, hacerla más lenta o generarle sectores defectuosos e irrecuperables. En realidad, el formateo a bajo nivel sólo está justificado en casos muy concretos, como la aparición progresiva de errores a nivel lógico, y nunca por infección de virus (el caso más frecuente). Ciertamente, algunos vicios de la época MFM son bastante difíciles de ser desterrados...

Algunos modelos de discos duros, de diversos fabricantes, sufrían una anomalía con cierta frecuencia, consistente en la paralización del motor que da giro al eje del disco (especialmente tras varios días de falta de uso del equipo por parte del usuario, o también por acumulación de humedad); el resultado era la imposibilidad de iniciar el sistema desde el disco duro. La solución, no demasiado "científica", por cierto, era sacar el disco y propinarle un par de buenos golpes (no demasiado fuertes, claro); y mano de santo. Lo que no podemos describir aquí es el cambio de color en la cara del dueño del ordenador, al ser testigo de semejante "reparación".



Interfaces: ST506, MFM y RLL
Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera.

Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora.

La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almacenamiento. También la trasa de transferencia es superior en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la misma en ambos casos: 3600 rpm.

En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL



ESDI
Con esta interfaz, “Enhanced Small Devices Interface” (interfaz mejorada para dispositivos pequeños), se daba un paso adelante. Para empezar, una parte de la lógica decodificadora de la controladora se implementó en la propia unidad, lo que permitió elevar el ratio de transferencia a 10 Mbits por segundo. Asimismo, se incluyó un pequeño buffer de sectores que permitía transferir pistas completas en un único giro o revolución del disco.

No obstante, estas unidades no se extendieron demasiado, y únicamente compañías como IBM (muy aficionadas a tecnologías propietarias) fueron las que más lo emplearon en sus máquinas. Estas unidades no solían tener una capacidad superior a 630 Megas, y en cualquier caso se trató más bien de una tecnología de transición, ya que un tiempo después tuvo lugar el salto cuantitativo y cualitativo con la interfaz que detallamos a continuación.



El estándar IDE
“Integrated Drive Electronics”, o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo.

IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado “Modos de Transferencia”. La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.

No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado “El papel de la BIOS”) no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó?



Enhanced IDE
La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.

Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un mayor número de componentes en el mismo espacio.



Modos de transferencia
Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo.

Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base.