miércoles, 4 de agosto de 2010

Conexión Inalámbrica: Los nuevos avances tecnológicos de Minera los Pelambres

23.07.09 10:34


Conexión Inalámbrica: Los nuevos avances tecnológicos de Minera los Pelambres
En la actualidad, se pasó de la implementación a concretar un servicio de continuidad operacional que es operado por COASIN


La tecnología inalámbrica ha ido penetrando todos los mercados y el minero no es la excepción. En Chile, Minera Los Pelambres (MLP), buscaba eficiencia para todos los usuarios de la compañía. Con este objetivo desarrollaron un proyecto con COASIN que le permitió pasar de la banda de 2,4 Ghz a la de 5,8 Ghz.

Este proyecto contempló nuevas instalaciones para potenciar las redes inalámbricas, que soportan 300 teléfonos IP, más de 200 computadores, equipos de videoconferencia tanto portátiles como fijos, permitiendo un permanente contacto con las demás áreas de la minera.

El tema no era menor, sobre todo considerando la iniciativa de expansión en la cual está inserta la minera que pertenece al holding Antofagasta Minerals- y que es conocida por sus explotaciones de cobre y molibdeno. Tiene sus operaciones en una zona geográfica dispersa que se emplaza en la comuna de Salamanca, en la IV Región entre 2.600 y 3.100 metros sobre el nivel del mar, casi bordeando el límite con Argentina.

Actualmente, la minera desecha sus relaves en el tranque Quillayes, el cual se acerca al fin de su vida útil. La necesidad de contar con un nuevo tranque los llevó a desarrollar al embalse El Mauro, el cual está ubicado a 60 kilómetros de la Planta Concentradora en plena cordillera de los Andes, donde la dispersión y complejidad geográfica de la zona era una característica importante, les permitiría seguir la explotación del yacimiento por más de 50 años, según relatan en la empresa.

Cambios para nuevas demandas

Si bien la minera ya contaba con una tecnología inalámbrica, ésta había sido concebida para ser utilizada por un máximo de 50 usuarios y sin capacidad para trasmitir imágenes y voz presentando dificultades para soportar las crecientes demandas.

Fue en ese contexto que en diciembre de 2005, la minera solicita a COASIN realizar un estudio y una propuesta de solución técnica para resolver los problemas de conectividad que tenían. Las auditorias se realizaron entre enero y febrero de 2006.

En marzo de ese período, COASIN propone una solución para cambiar el backbone de los enlaces de comunicaciones (troncal de comunicación que opera de un lugar a otro). Y entre septiembre y noviembre se lleva a cabo el proceso de instalación, configuración y puesta en marcha, según revela Exequiel Segovia, Gerente de Cuentas de Recursos Naturales de COASIN.

En la empresa de tecnología, el proyecto estuvo a cargo de la Gerencia de Ingeniería, mientras que en la minera, la Superintendencia de Informática y Telecomunicaciones, bajo el mando de Jorge Gutiérrez, quien contó con la participación de Juan Carlos Pulgar y Francisco Bastías fue la cabeza de la iniciativa.

El proyecto integral de desarrollo significó una inversión de US$ 543 millones tomando en cuenta que el tranque El Mauro apunta a convertirse en el más grande de Sudamérica, con la posibilidad de contener más de 1.700 millones de toneladas de relave. El peak de personal de 5.200 personas se alcanzó a diciembre de 2006. En la actualidad, trabajan en él 4.500 personas aproximadamente, con el objetivo de finalizar a fines de diciembre de este año todas las obras, según señala Francisco Bastías, de la Superintendencia de Informática y Telecomunicaciones de MLP.

Hay que tener presente que la nueva solución diseñada será utilizada con el máximo de exigencias sólo en la etapa de construcción y preparación del tranque. El siguiente paso consistió en la instalación de redes de fibra óptica como base de la conectividad a los usuarios, utilizando redes inalámbricas sólo como respaldo en caso de fallas.

Cabe destacar que la multinacional de origen estadounidense, Cisco, fue la encargada de proveer el hardware tecnológico, responsabilidad no menor dada la urgencia de que los equipamientos funcionaran al 100%, sobre todo en el primer periodo, antes de que fueran utilizados como equipo de respaldo.

Al respecto, Ricardo Rivera, Account Manager Cisco Chile, comenta que “en la empresa hemos definido el sector minero como una de las verticales claves para nuestro negocio, coincidiendo con la importancia que tiene para el desarrollo y crecimiento del país, por lo que es, sin duda, fundamental para nosotros poder ser parte de estos proyectos y aportar para acelerar el desarrollo tecnológico de Chile”.

Beneficios esperados


Las principales ventajas de la nueva red inalámbrica fueron la mejora sustancial en los sistemas de transmisión de datos. “Se agregó calidad al servicio y seguridad en su funcionamiento, algo absolutamente necesario hoy día en las comunicaciones de datos, sobre todo para las que contemplan telefonía IP”, señalan en COASIN, a lo cual agregan que la solución potenció la entrega de servicios 100% up time.

Otro beneficio fueron las mejoras de anchos de banda con la posibilidad de transmitir mejor calidad y mayor cantidad de información, además de señales de otro tipo tales como la videoconferencia. Así como también, la posibilidad de segmentar el sistema. Ello, al permitir la existencia de sectores capaces de soportar fallas sin afectar al sistema completo.

Respecto de la ausencia de fallas, comenta Jorge Gutiérrez de MLP, ésta se habría obtenido gracias a la calidad del diseño de la solución de COASIN, la que contempló redundancia para soportar fallas y equipos adecuados a condiciones de funcionamiento extremas, como son la altura y las temperaturas extremas, entre otros. A ello se agrega, la calidad y capacidad de los equipos y el involucramiento de los expertos de Cisco en respaldar la solución.

Finalmente, la capacidad de administración remota que logró la minera sobre sus equipos ha sido muy destacado por los ejecutivos de la minera. “Hoy se puede monitorear cada uno de los elementos que componen la solución de enlaces desde las oficinas de la minera, y se pueden reprogramar sin necesidad de acudir a los lugares donde ellos están instalados, los que se tornan prácticamente inaccesibles en períodos de mal tiempo”, concluye Gutiérrez.

Hay que señalar que el proceso de instalación y cambio de los equipos fue particularmente complejo y delicado, debido a que se debía evitar los impactos o irrupciones en los servicios que durante las instalaciones se encontraban operativos. Por lo tanto, el objetivo fue trabajar de manera muy planificada y cuidadosa, evitando irrupciones.

Por su parte, Rivera también destacó los logros alcanzados, al manifestar que “el mayor beneficio que conseguimos es avanzar en un proyecto de gran relevancia para el negocio de Minera Los Pelambres. Facilitar la comunicación dentro de las faenas de construcción del nuevo tranque de relave a través de la solución que integra las ventajas de la telefonía IP junto con las redes inalámbricas fueron el principal aporte de nuestro trabajo. Lo anterior mejoró dramáticamente la productividad y bajo los costos de una solución que usando otra tecnología hubiese sido inviable”.

Hardware

Trabajo de arquitectura
(2 votos)
Microprocesador. Memoria de computadora. Microcontrolador. Semiconductores. Transistores. Fabricación de microprocesadores. Historia del microprocesador. Tecnologías futuras. El CPU como corazón de la organización del computador. Ejecución de una instrucción completa. Secuenciamiento de señales de control. Registros del procesador. Arquitectura base. Tecnologías Paralelas Zócalo.

Publicado: Lun Abr 11 2005 | 4236 visitas | Calificar | Comentar | Abrir en otra ventana
Buses y tarjetas de expansión. Seminario de Ciencia y Tecnología
(19 votos)
Bus. Slots. ISA (Industry Standard Architecture). EISA (extended ISA). MCA (Micro Channel Architecture). VESA (Video Electronic Standards Association). PCI (Peripheral Component Interconnect). AGP (Advanced Graphics Port). USB y USB 2.0 (Universal Serial Bus). En informática, un bus es básicamente un conjunto de líneas de alambre (de diferentes materiales) por las cuales circulan energía eléctrica la cual es reconocida por el CHIPSET del ordenador en forma de unos(1) y ceros(0), que interconecta y comunica a los diferentes dispositivos (hardware) que comprenden el sistema computarizado; en ellos viajan información de control de los dispositivos y de utilidad para el usuario. Los buses constan de dos partes, el bus de direccionamiento que se encarga de señalar la posición en memoria donde se lee o almacenan la información y el bus de datos se encarga de transportarla de un dispositivo a otro.

Publicado: Vie Abr 08 2005 | 1353 visitas | Calificar | Comentar | Abrir en otra ventana
Memorias Programables
(13 votos)
Memoria ROM (Read Only Memory). Memoria PROM (Programmable Read Only Memory). Método de programación de la memoria PROM. Arquitectura de la PROM. Memoria EPROM. Programación de una EPROM. Funcionamiento de una EPROM. La familia 2700. Programador/Emulador de Flash EPROM. Memoria EEPROM (Electrical Erasable Programmable Read Only Memory). Ventajas de la EEPROM. Memoria Flash. Estructura y aplicaciones de la memoria Flash. Diferencias entre EEPROM y EEPROM Flash.

Publicado: Mie Abr 06 2005 | 1465 visitas | Calificar | Comentar | Abrir en otra ventana
Dispositivos de almacenamiento
(29 votos)
La Evolución de Tecnología del Almacenamiento en Masa. ¿Qué es una unidad de almacenamiento?. Dispositivos de almacenamiento magnéticos. Partes del disco duro. Funcionamiento del disco duro. Velocidad de Rotación (RPM). Los sistemas de archivo. Cache de disco (Tamaño del BUFFER). Discos duros IDE. El sistema de archivos NTFS (New Technology File System). Tecnología RAID. Tecnología SCSI. Discos Flexibles. Disketes. Almacenamiento por cintas. Unidades de Discos Compactos (CD): CD-ROM y CD regrabable. Disco de vídeo digital. WORM (write once, read many). Dispositivos de almacenamiento MAGNETO-OPTICOS. Unidades Iomega Zip, Jaz, Ditto y Click. Tarjetas perforadas.

Publicado: Jue Mar 31 2005 | 3044 visitas | Calificar | Comentar | Abrir en otra ventana
Conectores
(22 votos)
Puertos. Conectores. El Hub. Switch. Tarjetas PCI e ISA. ¿Qué es un puerto?. Puerto paralelo. Puertos Serie. Puertos USB (Bus Serie Universal). Puertos Firewire. ¿Qué es un conector?. Conectores del Bus de datos. Asignaciones de patas en el conector D-15 para vídeo. Asignaciones de patas en el conector DB-9. Asignaciones de patas el conector D-25 para Impresoras. Conector DIN. Asignaciones de patas en el conector DIN para teclado PS/2. Asignaciones de patas en el conector DIN para mouse PS/2. Conectores NIC RJ45. Numeración del conector RJ45. Conectores USB. Asignaciones de patas en el conector para USB. ¿Qué es el HUB?.

Publicado: Vie Mar 18 2005 | 3551 visitas | Calificar | Comentar | Abrir en otra ventana
Arquitectura de las computadoras
(14 votos)
Unidad Central del Sistema. Unidad Central de Proceso. Unidad de Control (CU). Unidad Aritmética y Lógica (ALU). Registros. Memoria de Acceso Aleatorio (RAM). Memoria ROM. Memoria Caché. Buses. Arquitecturas de Bus. Reloj. Tarjetas de expansión interna. Tarjetas Controladoras de Periféricos. Tarjetas de Expansión Controladoras del Modo de Video. Tarjetas Controladoras de Comunicaciones.

Publicado: Jue Mar 17 2005 | 3922 visitas | Calificar | Comentar | Abrir en otra ventana
Arquitectura general de un microcomputador
(5 votos)
Evolución de los microprocesadores Intel. Arquitectura del microprocesador 8086. Características de las unidades del 8086. Modelo de software del 8086. Puntero de instrucción (instruction pointer). Dedicated register functions. Descripcion flags. Memoria interna. Tipos de datos.

Publicado: Lun Feb 21 2005 | 1354 visitas | Calificar | Comentar | Abrir en otra ventana
Memorias auxiliares
(8 votos)
Medios de Almacenamiento. Dispositivos de almacenamiento magnético. Como funcionan los dispositivos Magnéticos. Discos flexibles o Floppy disk. Discos rígidos. Unidad de cinta magnética. Unidades DAT o unidades de audiocinta digital. Sistemas de almacenamiento intercambiables. Dispositivos de almacenamiento óptico. CD- ROM. WORM o Escritura Única, Lectura Múltiple. MO o Medios Magnéticos - Ópticos. DVD: El sucesor del CD. Interfaces para discos rígidos. Organización y protección de la información almacenada. Protección de la información con respaldos frecuentes.

Publicado: Mie Ene 19 2005 | 4462 visitas | Calificar | Comentar | Abrir en otra ventana
Lectoras y grabadoras de DVD
(5 votos)
Lectoras y grabadoras de DVD. Distintas generaciones. Discos Ópticos. Orígenes. ¿Qué son los discos ópticos?. Tipos y usos. La Evolución. Tecnología. DVD-video / DVD-Audio. Reproductor DVD. Estándares. El Sonido. El formato DVD- ROM. Los Formatos. Competitividad. El software.

Publicado: Mie Dic 29 2004 | 3447 visitas | Calificar | Comentar | Abrir en otra ventana
¿Qué son IRQ's?
(12 votos)
IRQ: Interrupt Request (Pedido de Interrupción). IRQ 0 (Temporalizador del sistema). Descripción. Conflictos. IRQ 1. IRQ 2. IRQ 3. COM 1. COM 2. COM 4. LTP. VGA. SCSI.

Publicado: Lun Nov 08 2004 | 6588 visitas | Calificar | Comentar | Abrir en otra ventana
Las Memorias de un Computador
(23 votos)
Unidades de Memoria. La memoria principal o RAM. Tipos de memorias RAM. Dispositivos de Almacenamiento Secundario. Discos duros. Dispositivos removibles.

Publicado: Lun Oct 18 2004 | 1499 visitas | Calificar | Comentar | Abrir en otra ventana
Estudio y análisis de un equipo informático / ordenador / computador: Hardware
(20 votos)
Que es un equipo de computación o sistema informático. Partes y componentes: Sistemas. Memoria. Hardware: Computador y periféricos.

Publicado: Mar Mar 30 2004 | 4413 visitas | Calificar | Comentar | Abrir en otra ventana
Comprension del hardware de un PC
(23 votos)
Terminología. El sistema operativo. El Hardware y los programas. Estructura de una PC típica.

Publicado: Vie Mar 26 2004 | 2313 visitas | Calificar | Comentar | Abrir en otra ventana
Dispositivos de Entrada
(75 votos)
Dispositivos de entrada. Dispositivos de salida. Dispositivos de almacenamiento. Dispositivos de memoria. Tipos de memoria. Teclado. Mouse. Micrófono. Scanner. Lector de código de barras. Cámara digital. Webcam. Lápiz Óptico. Joystick. Pantalla táctil. Monitor. Disco duro.

Publicado: Mie Nov 26 2003 | 5179 visitas | Calificar | Comentar | Abrir en otra ventana
La Tarjeta Madre o Mainboard
(61 votos)
El Procesador. Memoria Cache. Partes de la Tarjeta Madre. Tarjeta madre de PC. Enchufes CPU. Tarjetas de ranuras de expansión periféricas. Factores de forma físicas. Distintos tipos de Mainboard.

Publicado: Dom Nov 09 2003 | 4616 visitas | Calificar | Comentar | Abrir en otra ventana
monitores
(96 votos)
El monitor es uno de los principales dispositivos de salida de una computadora (mini, micro, etc) por lo cual podemos decir que nos permite visualizar tanto la información introducida por el usuario como la devuelta por un proceso computacional. La tecnología de estos periféricos ha evolucionado mucho desde la aparición de las PC, desde los "viejos computadora de fósforo verde" hasta los "nuevos de plasma". Pero de manera mucho más lenta que otros componentes, como microprocesadores, motherboards, etc. Sus configuraciones y prestaciones han ido evolucionando según las necesidades de los usuarios a partir de la utilización de aplicaciones mas sofisticadas como el diseño asistido por computadora (CAD/CAM) o el aumento del tiempo de estancia delante de la pantalla que se ha solventado aumentando el tamaño de la pantalla y la calidad de la visión.

Publicado: Mar Oct 28 2003 | 2306 visitas | Calificar | Comentar | Abrir en otra ventana
Discos RAID
(10 votos)
¿Porqué usar RAID?. ¿Quién debería usar los RAID?. RAID: Hardware vs. Software. Arreglos paralelos vs. independientes. Tipos de RAID. ¿Que es RAID?. Crear Particiones RAID. Elección de discos para un RAID. Configuración de RAID. Como seleccionar un disco RAID. Glosario.

Publicado: Lun Oct 20 2003 | 3306 visitas | Calificar | Comentar | Abrir en otra ventana
Funcionamiento de los Discos Magnéticos, Ópticos, Monitores e Impresoras
(22 votos)
Disco Rígido. Propiedades y Funciones de los Discos Magnéticos. Cantidad de Bytes que puede Almacenar un Disquete o un Disco Magnético. Localización de un Sector de un Disco/disquete, y por qué se dice que es Direccionable. Tiempos de Posicionamiento, Latencia y Acceso en un Disco o Disquete. Tiempo y Velocidad de Transferencia de Datos. Funciones que Cumple una Unidad de Disquetes ("Floppy Disk Drive"). Cómo están organizados físicamente los Sectores en las Pistas de los Discos Rígidos. Funciones que realiza una unidad de disco ATA-IDE o FAST ATA. Métodos de Grabación MFM y RLL. Discos Ópticos. Cómo se Fabrican los CD-ROM, y se Graban los Sectores de la Espiral. Cómo Son y se Escriben los CD para grabación por un Usuario Designados CD-R. Cómo se Direcciona y Localiza un Sector de la Espiral en un CD-ROM o en un CD-R. Qué es el formato lógico HSG/ISO 9660 para organización interna de un CD-ROM usado en Sistemas Operativos para almacenar archivos. Las Técnicas Magneto-Ópticas (MO) y de Cambio de Fase usadas en Discos Ópticos Borrables. Impresoras. Monitores.

Publicado: Vie Oct 17 2003 | 2196 visitas | Calificar | Comentar | Abrir en otra ventana
Trabajo practico de CD, grabadoras de CD y lectoras de DVD
(9 votos)
CD (compact disk). Como agregar una unidad de CD-rom interna. Grabadoras de CD´s. DVD. En este trabajo intentaremos explicar la composición física y el modo de funcionamiento de las unidades de CD, DVD y grabadoras de CD...

Publicado: Mar Oct 14 2003 | 1698 visitas | Calificar | Comentar | Abrir en otra ventana
Discos
(29 votos)
Discos. Discos magnéticos. Disco rígido. Diskettes. Zip. Discos magneto ópticos. Jaz. Discos Ópticos. DVD. CD. Discos PD. Discos WORM.

Publicado: Lun Sep 29 2003 | 1937 visitas | Calificar | Comentar | Abrir en otra ventana
Elementos más básicos de Hardware
(46 votos)
El Disco Duro (D.D). Tarjeta de video. La tarjeta de sonido. El modem. El SIMM. El DIMM. Escaner. Tableta Digitalizadora. Lapiz Optico. Camaras digitales. Procesadores actuales. La memoria. Periféricos de almacenamiento. Medios Magneticos. Medios Opticos. Disquetes. Periféricos de entrada. Telematica. Codigos de barra. Unidades especiales de entrada/salida. Periféricos de salida.

Publicado: Lun Sep 29 2003 | 2812 visitas | Calificar | Comentar | Abrir en otra ventana
Discos Duros
(24 votos)
Los discos (platters). Las cabezas (heads). El eje. Como funciona un disco duro. Memoria Ram. Arreglo redundante de discos independientes. Definiciones.

Publicado: Dom Ago 31 2003 | 2038 visitas | Calificar | Comentar | Abrir en otra ventana
Microprocesadores: lógica y diseño
(30 votos)
Registros. Unidad aritmético lógica. Memoria de programa. Diseño de un microprocesador. Esencialmente, un microprocesador es un circuito de alta escala de integración (LSI), compuesto de muchos circuitos mas simples como son los Fip-flops, contadores, registros, decodificadores, comparadores, etc; todos ellos en una misma pastilla de silicio, de modo que el microprocesador puede ser considerado un dispositivo lógico de propósito general o universal. Todos estos componentes que llevan a cabo físicamente la lógica y operación del microprocesador se denominan el hardware del micro. Además existe una lista de instrucciones que puede realizar o acciones que puede llevar a cabo el micro. Éstas constituyen el lenguaje del micro o software....

Publicado: Jue Ago 21 2003 | 6550 visitas | Calificar | Comentar | Abrir en otra ventana
USB - Universal Serial Bus
(27 votos)
USB (Universal Serial Bus). Firewire. USB vs. Fireware. Hoy día resulta muy interesante observar como los avances tecnológicos nos sorprenden por la evolución tan rápida que presentan y algo que gusta es que cada vez son más fáciles de usar para cualquier persona, es decir, se están volviendo muy amigables y no necesitas ser un experto para poder comprender su funcionamiento, usarlos o instalarlos, este es el caso de Universal Serial Bus, mejor conocido como USB...

Publicado: Mar Jun 03 2003 | 7118 visitas | Calificar | Comentar | Abrir en otra ventana
Dispositivos de Almacenamiento.
(52 votos)
Debido a la cantidad de información que manejamos actualmente, los dispositivos de almacenamiento se han vuelto casi tan importantes como el mismísimo computador. Aunque actualmente existen dispositivos para almacenar que superan las 650 MB de memoria, aún seguimos quejándonos por la falta de capacidad para transportar nuestros documentos y para hacer Backups de nuestra información más importante. Todo esto sucede debido al aumento de software utilitario que nos permite, por dar un pequeño ejemplo, convertir nuestros Cds en archivos de Mp3. El espacio en nuestro Disco duro ya no es suficiente para guardar tal cantidad de información; por lo que se nos es de urgencia conseguir un medo alternativo de almacenamiento para guardar nuestros Cds en Mp3 o los programas que desacargamos de Internet...

Software libre en la cooperación al desarrollo

Al igual que el año pasado, estos dos últimos días he estado llevando un blog de El Comercio Digital cubriendo el III Encuentro de TICs para la Cooperación al Desarrollo.

El año pasado creo que me quejé un poco de que faltaba el enfoque práctico y, como pasa cuando los organizadores están atentos a los planteamientos de los asistentes, este año ha sido todo mucho más enfocado a mostrarnos proyectos surgidos en los países del sur.

No voy a hablar de todos los proyectos, para eso tienes el blog que he estado escribiendo y el sitio oficial de los encuentros. Lo que me gustaría es enseñarte dos proyectos open source que me han gustado mucho.

El primero es Ushahidi, un sistema que te permite recoger datos provenientes de SMS, e-mail o la misma web y mostrarlos en un mapa o un timeline. El sistema surgió tras las revueltas post-electorales de Kenya del año 2007 con la intención de dar voz a los keniatas para denunciar situaciones de peligro.

El sistema, tanto a nivel técnico como gráfico es fantástico y ha sido utilizado por mucha otra gente como podrás comprobar en el listado que tienen en su web.

El segundo proyecto open source es Sahana, una plataforma para gestionar desastres. Surgio tras el maremoto en Sri Lanka y se trata de un software muy completo con el que gestionar cosas tan importantes como los listados de personas desaparecidas, la localización de refugios, solicitudes de ayuda…

Sahana es un sistema modular, con una arquitectura abierta a plugins y que facilita la recogida, procesado y visualización de información en momentos de catástrofe.

Pero, al margen de lo interesante de los proyectos en si mismos, lo más enriquecedor ha sido escuchar de primera mano una visión del software libre como cooperación, donde no hay fronteras ni primer o tercer mundo. Sólo hay colaboración, talento y esfuerzo.

Disponer de este tipo de herramientas, sobre todo para los que trabajan en cooperación, es una suerte. A pesar de que ambos proyectos surgieron en el ojo del huracán, al ponerlos a disposición de todos hacen que arrancar un servicio de este estilo no nos robe tiempo de lo importante: ayudar.

Definitivamente creo que debemos estar atentos a los proyectos que surgen de los países en vías de desarrollo. Hay mucho talento y muchas ganas, seguramente podamos aprender mucho del enfoque de otras culturas.

La seguridad y la gestión, principales inhibidores del cloud computing

A pesar de que ha conseguido extenderse considerablemente en las estrategias de muchas compañías, el modelo de cloud computing sigue sin afianzarse entre las empresas españolas. Así lo indica un reciente estudio publicado por CA, bajo el título ‘Unleashing the Power of Virtualization – Cloud Computing and the Perceptions of European Business’, del que se desprende, como una de las principales conclusiones, que las empresas españolas aún no están convencidas de los beneficios que aporta cloud computing. Mientras que el seis por ciento de los encuestados piensa que se trata de una moda y un nueve por ciento piensa que cloud computing está aquí para quedarse, un 86 por ciento está indecisos.

Al contrario, la encuesta realizada a 550 empresas europeas por la firma de investigación internacional Vanson Bourne muestra, asimismo, que la virtualización de servidores está ganando fuerza en toda Europa. Si nos centramos en los resultados españoles, un 40 por ciento de los encuestados afirma estar implementándola o piensa hacerlo. Sin embargo, con el cloud computing no ocurre lo mismo.

Y es que, las empresas españolas no tienen claro qué es exactamente el cloud computing, ni ven claras sus ventajas y, además, desconfían de aspectos tan importantes como la seguridad y la gestión. De acuerdo con el estudio el 60 por ciento de los encuestados españoles ve cloud computing como sinónimo de outsourcing (cloud externa o pública), mientras que el 40 por ciento, no lo ve así. Sea interna (privada) o externa (pública), no se perciben los beneficios que puede aportar el cloud y tienen dificultades para asociar sus ventajas técnicas (autoservicio a demanda, amplio acceso a la red, adaptabilidad y medición del servicio) con los beneficios que puede aportar al negocio, como son ahorro de costes, mejor retorno de la inversión, mayor disponibilidad y capacidad de implantar nuevos servicios más rápidamente. Destaca también el informe, que la medición del servicio, uno de los argumentos principales de venta del modelo de cloud externa, sólo es considerado como una ventaja por el seis por ciento de los encuestados españoles.

Finalmente, en cuanto a los inhibidores de este modelo, la gestión (58 por ciento) y la seguridad (29 por ciento) se elevan como los principales. Además, el 63 por ciento de las firmas españolas participantes no cree que en este momento tengan las capacidades adecuadas internamente para construir una infraestructura cloud.

El futuro de la ingeniería de software

El diseño de programas a partir de información binaria significó un paso sustantivo para la industria desarrolladora de software. Desde ese hallazgo, ocurrido en la década de los cincuenta, hasta hoy, el crecimiento de metodologías para su desarrollo ha subido notablemente en complejidad. Sin embargo, los circulos viciosos que acusa hoy la confección
de programas informáticos, impiden conceptualizar el objeto a un nivel superior de abstracción, tal y como lo exige el avance tecnológico y los procesos de negocios. El siguiente artículo sondea el futuro de la ingeniería, a la luz de su propia evolución.

La Banca del Futuro: Software para el Reconocimiento de Voz

La Banca del Futuro: Software para el Reconocimiento de Voz
La segunda patente más prometedora recogida por MIT Technology Review se trata de un nuevo método para verificar la identificación de personas mediante un sistema de comprobación de la autenticidad de voz y realización de preguntas personales. Este avance tecnológico patentado por IBM pretende reducir el número de transacciones telefónicas fraudulentas.

Normalmente cuando un cliente llama a su banco para realizar alguna transacción, un mensaje grabado le pide su numero de identificación, y un operador le hace una pregunta personal para verificar su identidad. Otro método utilizado por bancos consiste en un sistema de reconocimiento automático de la voz, pero estos sistemas pueden tener problemas con ruidos causados por interferencias o incluso con alguna variación natural en la voz del cliente en cuestión.

IBM ha logrado combinar e integrar ambos métodos para crear un nuevo sistema de protección contra el fraude, en su opinión muy superior a cualquiera de los sistemas individuales. El sistema de IBM crea un archivo, a través de la grabación de una "huella de voz" (una muestra de la voz del cliente), además de la grabación de sus contestaciones a una serie de preguntas personales. Cuando el cliente llama al banco, el sistema recoge tanto su voz como la contestación que ofrece a la pregunta personal, los compara y si son iguales que las muestras y contestaciones grabadas en su archivo, le permite acceder a los servicios bancarios que solicita. Además, introduce una mayor variedad de preguntas personales, incluyendo información sobre las últimas transacciones realizadas, y crea un sistema de preguntas al azar, para que sea más difícil acceder a los servicios bancarios a través de la grabación ilegal de accesos telefónicos anteriores.

IBM espera sacar el sistema al mercado dentro de pocos años. Esta innovación aplicada a otras vertientes (gestión de las administraciones públicas, tramitaciones administrativas en general...) en el caso de superar las restricciones legales, supondría un sustancial avance en la agilización de trámites sin el requerimiento de la presencia física.

AVANCES TECNOLÓGICOS EN LAS PRÓTESIS AUDITIVAS

La aplicación de la tecnología a la corrección de pérdidas auditivas ha estado presente en nuestra sociedad desde tiempos muy lejanos. Durante mucho tiempo la única solución posible al problema de la sordera fue el uso de la trompetilla y otros utensilios que actuaban como simples resonadores.

La aparición de la primera prótesis auditiva con amplificación eléctrica no vino hasta finales del siglo 19. Se habla de que Alexander Graham Bell inventó el teléfono después de construir un amplificador de audio para su esposa, que padecía de sordera.

El problema que pretende solventar una prótesis auditiva (audífono), es la lesión o disfunción de alguno/s de los mecanismos que intervienen en el proceso de audición. Dichos mecanismos son complejos y todavía existen grandes interrogantes acerca de su funcionamiento. El problema con que nos enfrentamos a la hora de determinar el algoritmo de proceso más adecuado, es la falta de conocimiento del sistema de descodificación que realiza nuestro sistema auditivo.

En la mayoría de las aplicaciones de ingeniería de audio, el objetivo es conseguir una señal lo más fiel posible, de alta calidad, no en vano todo sistema de audio comercial está pensado para personas con audición normal (normoyentes). Por ejemplo, en un sistema de grabación y reproducción, el objetivo es que la señal reproducida sea lo más parecida posible a la señal original registrada.

Sin embargo, cuando pretendemos corregir una pérdida auditiva, nos enfrentamos a un sistema auditivo dañado. Existen suficientes evidencias experimentales de que el sistema auditivo es un sistema no lineal, variante e incluso podría decirse que es no causal, ya que existen fenómenos como el tinnitus o acúfenos, que producen una percepción acústica en ausencia de estímulos externos. Todo ello, hace que nos preguntemos si la señal que debemos entregar a un oído dañado, debe ser o no, lo más fiel posible a la original.

A simple vista podríamos aventurar que la señal entregada debería presentar una cierta distorsión en amplitud, frecuencia y tiempo, opuesta a la distorsión provocada por el sistema auditivo dañado, de tal forma que ambas se compensasen. Ese planteamiento sería intachable si realmente pudiéramos acceder a los mecanismos fisiológicos que provocan todas esas distorsiones (de amplitud, frecuencia y tiempo). Sin embargo, la mejor vía de aplicación de la compensación de que se dispone hoy en día, es a través de la excitación acústica a nivel timpánico, mediante una señal previamente procesada. Existen prótesis auditivas que estimulan por otras vías (ósea, coclear y nerviosa), pero su aplicación se restringe a casos en que no es posible la estimulación por vía aérea.

Durante las últimas dos décadas se han logrado desvelar importantes incógnitas acerca de la fisiología del sistema auditivo, que se han materializado en sistemas de proceso de señal propuestos por diferentes fabricantes. Sólo la profundización en dichos conocimientos ha hecho que valiera la pena la inversión en desarrollo tecnológico necesaria para implementar algoritmos de proceso muy complejos en el reducido espacio que requiere un audífono. El último paso en este desarrollo es la aplicación del procesado digital de señal a un audífono, que abre las puertas a un sinfín de posibilidades, cuya explotación depende de la continuidad en el avance del conocimiento sobre la fisiología de la audición.

Además de los aspectos puramente científicos, existen toda una serie de condicionantes socioeconómicos en el mundo de las prótesis auditivas que no deben obviarse, ya que en gran medida condicionan las tendencias de la industria de este sector. Un factor importante, son las expectativas de la persona que decide comprar un audífono. La sordera, en la mayoría de los casos, obedece a una lesión sensorial, por lo que ninguna solución podrá restituir totalmente la audición perdida. Sí, en cambio, mejorarla. Por ello, en muchos casos, la prótesis auditiva no responde a las expectativas del paciente, derivando en una serie de procesos psicológicos que terminan en el rechazo de la misma, aunque objetivamente su percepción acústica se vea mejorada. Otro aspecto social importante en el mundo de las prótesis auditivas es la necesidad del paciente de ocultar su incapacidad. Por ello, el paciente procura obtener siempre la prótesis más pequeña posible, aún a costa de obtener de ella peores prestaciones que las que obtendría con una audífono más grande, con posibilidades de proceso de señal más avanzadas. La satisfacción de este tipo de necesidades sociológicas es un argumento que pesa hoy en día mucho en la industria.

2.- EVOLUCION DE LA TECNOLOGÍA
Durante muchos años, la tecnología disponible para ser aplicada a la construcción de prótesis auditivas no permitía ir mas allá de la obtención de simples amplificadores que solo eran razonablemente eficaces en las hipoacúsias de transmisión pero no podían abordar los problemas asociados a las hipoacúsias de percepción,( reclutamiento, mala discriminación frecuencial, audición en ruido, efecto Larsen..etc) , por lo que eran mal aceptadas o rechazadas por los afectados. También contribuía al rechazo el tamaño .

Durante los años 70 y 80, el desarrollo de la tecnología electrónica en general permitió avanzar en algunos de estos problemas como el tamaño y el reclutamiento.

El mayor logro fue en el tamaño gracias a la miniaturización de los componentes electrónicos ; mas modestos fueron los avances en el problema relativos a la diferente sensibilidad en la percepción en la escala de intensidad en las hipoacúsias sensoriales, (reclutamiento), que conlleva una mala audición para los sonidos de intensidad debil o media junto a una audición normal para los de intensidad fuerte o muy fuerte, dado que la voz presenta alteraciones naturales en la intensidad este fenómeno comporta una disminución de la inteligibilidad de la palabra junto a una sensación auditiva desagradable. Aprovechando las posibilidades de la miniaturización se pudieron instalar mas componentes en los circuitos e implementar diversos sistemas de AGC ,(en ingles Control Automático de Ganancia) que supusieron un avance importante pero todavía insuficiente para muchos usuarios de los audífonos. El resto de los problemas citados anteriormente, quedaban fuera de las posibilidades de la tecnología hasta este momento utilizada : PROCESO ANALÓGICO DE LA SEÑAL.

Estaba claro que para poder avanzar en el proceso evolutivo de la tecnología aplicada a la industria de los Audífonos era necesaria la utilización de PROCESADORES DIGITALES DE SEÑAL, (DSP en ingles), que permitieran implementar algoritmos,(conjunto de instrucciones de proceso), acordes con los nuevos conocimientos de la fisiología de la audición. A finales de los años 80, el gobierno de EE.UU financio el llamado proyecto PHOENIX para el desarrollo de un audífono digital ; resultó un aparato muy grande cuyas prestaciones no mejoraron las ya disponibles en aquel entonces con la tecnología analógica. El problema era tecnológico ya que en aquella época no se disponía de circuitos digitales que funcionaran con bajo consumo y baja tensión por lo que tenia que alimentarse con fuentes de alimentación,(pilas), muy grandes; por otra parte, no se habían desarrollado las técnicas de integración de circuitos que permitiesen utilizar una gran cantidad de componentes en reducidos espacios. En la década de los 90, este desarrollo se produjo e hizo posible su utilización en los audífonos.

En 1995, la empresa danesa WIDEX A/S lanzó al mercado el primer audífono digital de proceso avanzado en formato CIC,(Completamente Insertado en el Canal auditivo). En los últimos diez años transcurridos, los avances en la tecnología digital han sido considerables. De los 300.000 transistores que en 1995 utilizaba un audífono hemos pasado actualmente a 3.000.000. Ello ha permitido profundizar y avanzar en las soluciones a los problemas anteriormente citados. La aparición de la tecnología digital introduce en los audífonos unas mejoras protésicas importantes tanto en los aspectos cuantitativos (mayor amplificación del sonido), como cualitativos (mejor sensación acústica). La tecnología digital permite que los algoritmos del proceso de señal que son capaces de realizar los audífonos sean cada vez mayores, más rápidos y con menor consumo. Por ello, ya en los inicios del siglo XXI, el audífono digital está desplazando completamente al analógico.

Con todo, conviene ser muy cauto en la selección del audífono digital más adecuado a cada usuario, puesto que no todos los audífonos denominados digitales poseen las mismas prestaciones. En ocasiones se ofertan audífonos digitales que únicamente presentan las mismas prestaciones que los audífonos analógicos. Por otra parte, y no menos importante, la adaptación correcta de un audífono digital de altas prestaciones requiere una elevada calificación profesional del audioprotesista y un instrumental técnico cada vez más complejo. Solo de este modo se garantiza que el usuario acceda a las prestaciones de un audífono digital de alta gama con las máximas garantías posibles de éxito.

Avances tecnológicos de la nueva Esware Linux 3.0

La compañia presentó los últimos avances tecnológicos de su nueva versión 3.0 en las jornadas linux de la universidad politécnica de Salamanca.

Esta nueva versión, que estará disponible apartir del próximo septiembre, incluye numerosas mejoras tanto en el escritorio como en la configuración de dispositivos. Entre ellas cabe destacar:

Sistema de ficheros con metadatos.

Comunicación entre dispositivos con DBUS.

Configuración cero para red y recursos de red, que interactua con servicios de directorio, incluido Active Directory de Microsoft

Detección de hardware avanzada con uso de servidor HAL.

Mejora global del escritorio que incluye un sistema de notificaciones configurable por el usuario.

Todas estas mejoras hacen de Esware Linux la solución española más avanzada del mercado.

Sobre Esware Linux

ESware LinuX es una empresa dedicada por entero a facilitar el desarrollo y fomentar la creación de proyectos GNU/Linux; con este fin, ESware LinuX no solo desarrolla un Sistema Operativo GNU/Linux, sino que aporta una estructura de servicios globales que permiten hacer Linux posible a empresas, profesionales y usuarios domésticos.

ESware proporciona el grado de calidad y profesionalidad necesario para dar soporte a un sistema de reciente creación que incorpora las más modernas herramientas tecnológicas.

Avances Tecnológicos de FreeBSD

FreeBSD ofrece diferentes características avanzadas.
No importa que aplicación quieras que use los recursos del sistema aprovechándolos al máximo. Las avanzadas características de FreeBSD se encargarán de ello.

Un sistema operativo completo basado en 4.4BSD.
Las raices de FreeBSD derivan de la última release de software del Computer Systems Research Group de la Universidad de California, Berkeley. El libro The Design and Implementation of 4.4BSD Operating System, escrito por los arquitectos del sistema 4.4BSD, describe en detalle muchas de las funcionalidades del núcleo de FreeBSD.

Gracias al nivel y experiencia de diversos grupos de desarrolladores de todo el mundo, el proyecto FreeBSD ha trabajado para extender las características y posibilidades del sistema operativo 4.4BSD, consiguiendo en cada nueva release un sistema operativo más estable, rápido y conteniendo nuevas funcionalidades creadas a demanda de los usuarios.

FreeBSD ofrece el más alto rendimiento, gran compatibilidad con otros sistemas operativos y una menor administración del sistema.
Los desarrolladores de FreeBSD se han enfrentado a algunos de los problemas más difíciles en el diseño de sistemas operativos para poder ofrecerte estas avanzadas características:

Bounce buffering trata sobre la limitación en la arquitectura ISA de los PC's que limita el acceso directo a memoria en los primeros 16 megabytes.
Resultado: sistemas con más de 16 megabytes operan más eficientemente con periféricos DMA en el bus ISA.

Un buffer de caché conjunto de memoria virtual y sistema de ficheros continuamente ajusta la cantidad de memoria usada por los programas y el cache de disco.
Resultado: los programas reciben una excelente gestión de memoria y un alto rendimiento en los accesos a disco, liberando al administrador del sistema del trabajo de ajustar los tamaños de los cachés.

Módulos de compatibilidad que permiten la ejecución de programas de otros sistemas operativos en FreeBSD, incluyendo programas para Linux, SCO, NetBSD y BSDI.
Resultado: los usuarios no tendrán que recompilar programas ya compilados para algunos de los sistemas compatibles, teniendo acceso a programas como las extensiones para BSDI de Microsoft FrontPage Server o WordPerfect para SCO y Linux.

Módulos de kernel de carga dinámica que permiten tener acceso a nuevos sistemas de ficheros, protocolos de red o emuladores de binarios en tiempo de ejecución sin necesidad de generar un nuevo kernel.
Resultado: Se puede ganar mucho tiempo y desarrolladores de terceras partes pueden ofrecer subsistemas completos como módulos de kernel sin necesidad de distribuir el código fuente o complejos procedimientos de instalación.

Librerías compartidas reducen el tamaño de los programas, ahorrando espacio de disco y memoria. FreeBSD usa un avanzado esquema de librerías compartidas que ofrecen muchas de las ventajas de ELF, ofreciendo la versión actual compatibilidad ELF con programas de Linux y nativos de FreeBSD.
Naturalmente, cómo FreeBSD es un esfuerzo en constante evolución, puedes esperar nuevas características y niveles más altos de estabilidad con cada release.

Lo que dicen los expertos . . .
"FreeBSD has an outline-structured visual configuration editor ... you can enter the configuration of every device the OS supports and can therefore get a successful installation on the first try almost every time. IBM, Microsoft, and others would do well to emulate FreeBSD's approach."

---

Estructura de computadores

Arquitectura Von Neumann
Así se conoce la forma de estructuración utilizada en los ordenadores actuales; desde 1945 con UNIVAC, se utiliza la arquitectura diferenciadora entre hardware y software que él creó (Von Neumann es junto con Alan Turing padre de la informática moderna, y curiosamente el gran precursor de los virus informáticos en sus estudios sobre autómatas autorreproductores que John Conway continuó en 1970 con el juego "Life", antecesor a su vez de los algoritmos genéticos). Según esta arquitectura, una definición adecuada para un computador sería la siguiente:
Máquina programada de propósito general capaz de realizar una serie de operaciones básicas siguiendo un conjunto de instrucciones que le son proporcionadas a través de un programa encaminado a resolver un problema.
Los elementos básicos de un computador propuestos por Von Neumann y que se utilizan en la actualidad son los siguientes:
-Memoria: Su misión consiste en servir de almacenamiento de la información dentro del computador, sean programas o datos, y sin hacer distinción entre código y datos (no hay una memoria para datos y otra para código ejecutable, está unificada).
-Dispositivos de E/S (Entrada/Salida): Engloban todos aquellos periféricos como puedan ser ratones, monitores, teclados,… es decir, todo lo que proporcione datos al computador o a través de lo cual salgan de él.
-BUS de comunicaciones: Las operaciones de accesos a datos, de manejo de periféricos y otras, han de realizarse a través de un BUS (hilos de comunicación); su misión engloba por ejemplo la transferencia de datos entre memoria y procesador.
-CPU - Unidad Central de Proceso (Central Processing Unit): Es la encargada de controlar y ejecutar todas las funciones del computador. Es la que determina en qué condición se ejecuta el código y como han de mandarse los datos, generando además todas las señales de control que afectan al resto de las partes.
Memoria
Jerarquía de memoria
La memoria en un computador se organiza en varios niveles que se organizan en forma piramidal, en el pico aquello que es más rápido y también más escaso (registros) y en la base lo más lento pero al tiempo más abundante (discos):

Pirámide de memorias (según su velocidad y tamaño)
Los registros pertenecientes al microprocesador son los más rápidos (con un tiempo de acceso que suele estar entre 1 y 5 nanosegundos) aunque por su coste el tamaño es reducido (normalmente no más que 256 bytes). La memoria caché, más lenta, tarda entre 5 y 20 ns (tiempo de acceso) pero con un tamaño mayor que a pesar de todo pocas veces sobrepasa el megabyte. La memoria principal, lo que solemos conocer como RAM, tiene ya un tamaño bastante mayor - las configuraciones standard de PCs difícilmente bajan ya de los 128Mb - pero al tiempo un acceso más lento (entre 60 y 200 nanosegundos). Finalmente, con la memoria secundaria hacemos referencia normalmente al disco duro, que es utilizado por el ordenador como memoria virtual.
Entre los distintos niveles de la jerarquía, ha de haber una correspondencia en los datos. Un nivel superior, más pequeño que el inferior, contendrá información proveniente de este nivel más grande que él, información a la que quiere acceder más deprisa. Por ejemplo, cuando accedemos a una base de datos, esta se carga en memoria para que podamos accederla a más velocidad; sin embargo, si modificamos valores de estos datos en memoria, tendremos que hacer una actualización desde la memoria al disco duro para que los cambios sean permanentes; así pues, siempre que modifiquemos algo en un nivel de la jerarquía, tarde o temprano habrá que transferir estos cambios a los niveles inferiores hasta llegar a la base de la pirámide.
Del mismo modo sucede en la relación entre memorias caché y principal; en la memoria caché se van a cargar partes de la memoria principal que se supone van a ser más utilizadas que otras, con lo cual cuando se produzca una modificación de lo que contiene la caché, habrá que actualizar de alguna manera la memoria principal.
Podríamos decir lo mismo de la relación entre caché y registros del micro, pero estos registros han de ser descritos más adelante en detalle pues su importancia va a ser capital para la programación en lenguaje ensamblador.
Es ya cosa de la implementación de cada procesador, decidir cuales son las políticas de extracción (decidir qué información se sube al nivel superior y cuando) y de reemplazo (decidir qué porción de la información de ese nivel superior ha de ser eliminada).
Memoria virtual
En un sistema dotado de memoria virtual, dos niveles de la jerarquía de memoria son tratados hasta cierto punto como si fueran uno sólo; esto es, las memorias principal y secundaria (memoria RAM y disco duro generalmente) se acceden mediante lo que denominamos direcciones virtuales (no olvidemos en cualquier caso que un programa ha de residir en memoria principal para ejecutarse, al igual que los datos para ser accedidos o modificados).
Para llevar a cabo esta labor, al ejecutarse un programa se asignará un espacio virtual a este, espacio que no va a compartir con ningún otro programa y gracias al cual tampoco va a ver a ningún otro programa más que al propio sistema operativo. Es decir, supongamos que tengo tres programas ejecutándose, P1, P2 y P3, y que nuestro sistema virtual maneja direcciones desde la 0x00000000 a la 0xFFFFFFFFh (en numeración hexadecimal). Cada uno de estos tres programas podrá ocupar la parte que quiera de esta memoria virtual, y aunque dos de ellos ocuparan la misma dirección virtual no se "pisarían" dado que son procesador y sistema operativo quienes mediante la MMU (Memory Management Unit) deciden a qué parte física de la memoria principal (o a qué zona de la memoria secundaria) corresponde la dirección virtual (ojo, el espacio virtual 0x00000000 a 0xFFFFFFFFFh es independiente en cada uno de los programas). Es por ello, que excepto por mecanismos que se implementen a través del sistema operativo, el código y datos de un programa no podrá ser accedido desde otro.
En cualquier caso, un programa no puede acceder a *todo* el espacio virtual, sino a la parte que le reserva el sistema operativo (volveremos a esto cuando hablemos sobre procesos en la parte dedicada a SSOO), ya que parte de él estará ocupado por código perteneciente al propio sistema operativo.
Por último, destacar que este espacio virtual se divide en páginas virtuales, cada una normalmente de 4Kb de tamaño; sobre estas se mantendrá una tabla de páginas, una estructura que contiene la información acerca de donde residen las páginas de un programa en ejecución. Si se intenta acceder en lectura o escritura sobre una página que está en la memoria principal no habrá problemas y la MMU traducirá la dirección virtual a la posición física en memoria. Sin embargo, si se intenta acceder a una página que resida en el disco duro, se generará un fallo de página y se cargarán esos 4Kb que estaban en el disco duro sobre la memoria principal, pudiendo, ahora sí, leer o escribir sobre la información contenida en ella.

En un modelo muy simplificado, 1 bit indica si la página pertenece al disco duro o a la memoria, y su dirección real (física)
La aplicación práctica la hemos visto todos en sistemas como Linux o Windows; se reserva un espacio de tamaño variable como "memoria virtual" (el término es en realidad incorrecto tal y como se utiliza en Windows, ya que la memoria virtual abarca la RAM que tenemos y lo que asignemos para disco duro), y esto nos va a permitir como gran ventaja cargar programas más grandes que la memoria que tenemos. Evidentemente, si arrancamos diez programas que ocupan 20Mb cada uno en memoria y nuestra memoria es tan sólo de 128Mb no vamos a poder tenerlos a la vez en memoria, con lo cual el sistema de memoria virtual se hace necesario. Lo mismo sucedería, si intentamos cargar un programa que necesita 140Mb de memoria.
Así pues, aquellos programas que estemos utilizando residirán en la memoria virtual, y aquellos que no, en el disco duro. Cuando utilicemos los otros, las partes menos utilizadas de la memoria principal pasarán al disco duro, y se cargarán desde él las que estemos utilizando.
Dispositivos de E/S
Existen de entrada (ratón, teclado, scanner), de salida (monitor), y que cumplen ambas cosas (discos duros, disketeras, módems). Los conocemos más como "periféricos", y en realidad cualquier cosa, desde un detector de movimiento a una cámara de video, pueden utilizarse como dispositivos de E/S.
La tarea más compleja respecto a estos dispositivos, es su control mediante el microprocesador; por ejemplo un módem conectado al puerto serie de un PC ha de ponerse de acuerdo con el procesador respecto a la forma de intercambiar sus datos o la velocidad con la que lo hace. Se necesita que haya una coordinación entre ambos para que uno lea a la misma velocidad a la que el otro escribe, y para interpretar adecuadamente los datos transmitidos. Además, el procesador debe de mantener una jerarquía dando prioridad antes a unos periféricos que a otros (atender una petición del disco duro puede resultarnos más importante que atender una del teclado).
Control de dispositivos de E/S
Existen tres modos básicos de realizar operaciones de E/S: programada, por interrupciones y por DMA (direct memory access):
*La E/S programada exige que el procesador esté pendiente de las operaciones realizadas por los periféricos; por ejemplo, en caso de controlar mediante este sistema un disco duro, la CPU tendría que ordenar la lectura de disco y estar pendiente mediante comprobaciones de si esta lectura ha sido realizada hasta que esto sea así; este es el método menos efectivo, puesto que mientras la CPU está haciendo estos chequeos para saber si la operación ha concluido no puede hacer otras cosas, lo cual reduce mucho su efectividad.
*Con un sistema de E/S por interrupciones, el procesador se "olvida" una vez mandada en nuestro ejemplo esa órden de lectura de disco, y sigue ejecutando las instrucciones del programa actual. Cuando esta operación haya terminado, y en general cuando un periférico tiene datos dispuestos para enviar o recibir, se generará lo que se conoce como "interrupción"; esto es, que la ejecución del programa por el procesador se detiene, y salta a una rutina de tratamiento de interrupción que hace lo que tenga que hacer con esos datos. Salta a la vista, que este sistema (utilizado con frecuencia) es mucho más efectivo que la E/S programada, puesto que libera al procesador de estar pendiente de la finalización de las operaciones de E/S.
*Finalmente, la E/S por DMA libera por completo al procesador no sólo de la tarea de control sobre estas operaciones como ya hacía el sistema por interrupciones, sino también del tener que preocuparse por la transferencia de los datos. Parte de la memoria virtual se "mapea" sobre el periférico; esto es, si por ejemplo tenemos una pantalla de 80x25 caracteres, en memoria se reservará una zona de 80x25 bytes tales que cada uno representará un carácter (que se halla en ese momento en la pantalla). Así pues, para escribir o leer lo que hay en pantalla en lugar de tener que estar el procesador enviando órdenes, se realizaría de forma transparente, de modo que leyendo de la memoria se leería directamente del monitor, y escribiendo en ella se modificaría lo que está escrito sobre él.
Buses de comunicación
Todas las operaciones mencionadas, han de realizarse a través de un BUS. Básicamente, tendremos tres tipos de buses:

-BUS de datos: Transfiere información, como su propio nombre indica. Por ejemplo, un bus de datos une el procesador con los discos duros o la memoria, para que estos puedan ser accedidos y su información transferida de un lugar a otro.
-BUS de control: Transporta las señales que se utilizan para configuración y control; pueden ser por ejemplo señales que decidan qué periférico ha de transmitir en un determinado momento, indicaciones para la memoria RAM de si debe de leer o escribir, etc.
-BUS de direcciones: Su utilidad se hace patente en operaciones como accesos a memoria; transportaría la indicación acerca del lugar de donde hay que leer o escribir en la RAM, o en el acceso a un disco duro el lugar físico de este donde se quiere leer o escribir.
Estos buses se combinan constantemente para poder llevar a cabo satisfactoriamente las operaciones requeridas por el procesador central. En una lectura de memoria, la CPU mandaría señales para activar el proceso de lectura en la RAM, mientras que por el bus de direcciones viajaría aquella dirección de la que se quiere leer. Una vez llegados estos datos a la memoria, por el bus de datos viajaría hasta el procesador aquella información que se requirió en un principio.
CPU
Se trata del "gran cerebro" del computador, encargada del control de todo lo que sucede y de la ejecución del código. Se compone de tres partes principales; la ALU (Arithmethic-Logic Unit), la Unidad de Control y la Unidad de Registros.


Modelo sencillo de un procesador relacionado con memoria y dispositivos de E/S
La ALU (Unidad Aritmético-Lógica o Arithmethic-Logic Unit)
Su misión es la de realizar operaciones aritméticas. Dependen del diseño, aunque encontraremos como básicas suma y resta; puede que queramos disponer de otras más complejas como multiplicación y división (para ahorrar tiempo a la hora de hacer una suma reiterada en lugar de una multiplicación si no estuviera implementada, por ejemplo). Además, tendremos operaciones lógicas:
* AND: Un AND hecho a dos bits devuelve 1 sólo si los dos bits son 1 (por ejemplo, 011 AND 101 dará como resultado 001). Equivale al "Y" lógico (es decir, al resultado en lógica de algo como "se da X y se da Y", frase que sólo sería verdadera en caso de darse X e Y).
* OR: Un OR hecho a dos bits devuelve 1 si al menos uno de los dos bits implicado en la operación es 1 (un 011 OR 101 da como resultado 111). Equivale al "O" lógico (el resultado de algo como "se dan X, Y o ambos", sentencia cierta en caso de darse X, Y o ambos).
* XOR: Un XOR, (eXclusive OR, O exclusivo) da 1 operando sobre dos bits si uno de los dos bits es 1 y el otro 0 ( la operación 011 XOR 101 resulta 110). Este "O exclusivo" en lógica es el que se daría en un "X está vivo o está muerto"; una de las dos condiciones ha de cumplirse para que esta sentencia sea cierta.
* NOT: Esta operación trabaja con un sólo bit; lo que hace es invertirlo (así, NOT 011 dará 100 como resultado).
Las operaciones con la ALU se pueden indicar mediante una señal de control con los bits suficientes como para diferenciar entre los tipos de operación existentes. Es decir, si tenemos 2 bits para la señal de control, las posibilidades de estos bits serán "00-01-10-11", lo cual da como resultado una ALU que pueda hacer cuatro funciones distintas. Con 3 bits, tendríamos "000-001-010-011-100-101-110-111", es decir, 8 operaciones posibles.
Además de esta señal de control, tendremos dos entradas de datos; esto es, los operandos de la función que se va a realizar. Así, si queremos hacer un AND entre dos números, meteremos cada uno de ellos por una entrada de datos y seleccionaremos el AND. Por supuesto, habrá al menos una salida conectada para el resultado de la operación:

K12 tecnológica

K12 recibe de Microsoft el reconocimiento como Especialista en Pequeña Empresa.

La designación como Especialista en Pequeña Empresa nos reconoce para el diseño, implementación y personalización de soluciones para pequeñas empresas con tecnología de Microsoft.

Al contar con conocimientos especializados y estar familiarizado con el sector de la pequeña empresa, logramos que nuestros clientes estén satisfechos y dispuestos a seguir colaborando con nosotros.

La satisfacción de nuestros clientes es mayor cuando saben que comprendemos su negocio y podemos suministrarles las mejores soluciones al mejor precio, permitiéndoles rentabilizar rápidamente la inversión y expandirse.


¿Qué ofrece K12 tecnológica a sus clientes?

Nuestra empresa busca extender al mercado malagueño los excelentes resultados conseguidos por Softcom en otras provincias españolas. Los servicios de K12 destacan por varias ventajas:


MÁXIMA PERSONALIZACIÓN: Analizamos la problemática específica de nuestros clientes y adaptamos el servicio a sus necesidades. Para K12 ningún cliente es igual a otro.


SERVICIOS INTEGRALES: La capacidad técnica de K12, permite ofrecer servicios tecnológicos integrales, facilitando al cliente un solo interlocutor para resolver la mayoría de sus problemas. Este enfoque de “ventanilla única” facilita mucho las cosas a las empresas que necesitan abordar problemáticas tecnológicas muy variadas.


RECURSOS PROPIOS: Los servicios que ofrecemos están garantizados con personal propio. Somos conscientes de los problemas de calidad que genera habitualmente la subcontratación a terceros, y por eso preferimos apostar por nuestro equipo para garantizar los niveles de servicio prometidos.


EFICACIA Y SERIEDAD: K12 es una empresa que fideliza a sus clientes mediante servicios de alta calidad. Cumplimos siempre nuestros compromisos, como avalan el gran número de instalaciones con éxito que ha realizado nuestro equipo.


SOLUCIONES INNOVADORAS: K12 tiene una fuerte vocación innovadora, con un equipo que se adelanta a los avances tecnológicos. Estamos al día de las nuevas soluciones que aparecen en el mercado y procuramos ofrecerlas a nuestros clientes según sus necesidades.

El comportamiento de un robot aut´onomo viene determinado por el programa

El comportamiento de un robot aut´onomo viene determinado por el programa
que gobierna sus actuaciones. La creaci´on de programas para robots
debe cumplir con ciertos requisitos espec´ıficos frente a la programaci´on
en otros entornos m´as tradicionales, como el ordenador personal. En este
art´ıculo planteamos que el software de los robots se estructura actualmente
en tres niveles: sistema operativo, plataforma de desarrollo y aplicaciones
concretas. En los ´ultimos a˜nos, han surgido con fuerza plataformas de desarrollo
con la idea de facilitar la construcci´on incremental de estas aplicaciones
rob´oticas. M´as all´a del acceso b´asico a los sensores y actuadores, las
plataformas suelen proporcionar un modelo para la organizaci´on del c´odigo
y bibliotecas con funcionalidades comunes. En este art´ıculo se identifican
y analizan esos tres niveles, describiendo desde esta perspectiva los entornos
de desarrollo de los robots reales m´as extendidos, y las tendencias m´as
recientes.

Los equipos más importantes

IBM 650
Considerada la primera computadora de producción masiva, la IBM 650 tenía
un tambor magnético como medio principal de almacenamiento de datos, lo que
constituyó una innovación por la velocidad y confiabilidad de la inform a c i ó n .
La máquina medía dos metros de altura por dos de ancho y contenía casi 2,000
bulbos (tubos de vacío). Para disipar el calor generado por los tubos de vacío, la
computadora tenía una especie de “tubo de escape” que circulaba el aire hacia
el exterior del cuarto del equipo. La única manera de meter o extraer datos de
la computadora era por medio de una caja separada que contenía una unidad
l e c t o r a / p e rforadora de tarjetas de cartón. En total se lanzaron al merc a d o
a l rededor de 450 máquinas, las cuales tenían un costo mensual de $3,750 dólare s
(IBM no vendía estos equipos, los rentaba). Se calcula que en 1954 había 100
computadoras operando en todo el mundo.
DEC PDP-1
P recursora de las minicomputadoras, la PDP-1 de DEC (Digital Equipment
Corporation) se vendía a 120,000 dólares en 1960. Se fabricó un total de 50
máquinas de este tipo, y su innovación principal consistió en un “tubo de rayos
catódicos” (cinescopio) que se consideró el primer monitor de computadora. La
PDP-1 ya no requería refrigeración interna y sólo necesitaba un operador para
atenderla. Su primitivo “monitor” inspiró a los primeros “hackers” en el MIT
(Instituto Tecnológico de Massachussets, en Boston) a programar en esta
máquina el primer juego de vídeo de computadora: “SpaceWa r s ! ” .
IBM 360
IBM anuncia el lanzamiento del Sistema/360, la primera familia de (seis)
computadoras compatibles entre sí. La inversión inicial de 5,000 millones de
d ó l a res para realizar este proyecto se recuperó rápidamente, ya que los pedidos
de todo el mundo para comprar este equipo llegaron a 1,000 máquinas al mes a
los dos años de su salida al mercado. La avanzada tecnología del sistema 360 fue
bautizada por IBM como “arquitectura de computadoras” y este térm i n o
describiría a todas las subsecuentes grandes máquinas de la firm a .
C o n t rol Data CDC6600
La primera supercomputadora, la “Control Data CDC6600”, fue desarro l l a d a
en 1964. Diseñada por Seymour Cray (posteriormente creador de la línea de
S u p e rcomputadoras CRAY Research), realizaba hasta tres millones de
i n s t rucciones por segundo (3 MIPS), una velocidad de procesamiento tres veces
superior a la de su competidor más cercano: IBM (se espera que la próxima
generación de micro p ro c e s a d o res Intel alcance una capacidad de
p rocesamiento de 750 MIPS para el año 2002 y consuma menos de un vatio –watt–
de potencia). La CDC6600 mantuvo la distinción de ser considerada como la
computadora más rápida del mundo hasta 1968, cuando fue superada por su
p redecesora, la CDC7600. Parte de su velocidad provenía del avanzado diseño
i n t e rno, que incluía 10 pequeñas computadoras independientes conocidas como
“ p ro c e s a d o res periféricos”, que enviaban información a una enorme unidad
central de procesamiento (CPU).
P D P - 8
Digital Equipment Corporation lanzó la PDP-8, la primera minicomputadora
c o m e rcialmente de éxito, en 1965. Costaba cerca de 18,000 dólares, una quinta
p a rte del precio de las IBM/360 más pequeñas. La velocidad, tamaño y pre c i o
razonable permitió a la PDP-8 llegar a empresas que nunca habían soñado con
utilizar equipo de procesamiento de datos, como plantas de manufactura,
pequeños negocios y laboratorios científicos. Se vendieron más de 50,000
unidades de este equipo y su tecnología de fabricación se basaba en
t r a n s i s t o res, con una arquitectura de 12 bits.
Data General NOVA
La NOVA fue la primera minicomputadora de 16 bits y fue el sistema que
definió como estándar la utilización de longitudes de palabra con múltiplos de
los 8 bits tradicionales. Dos aspectos notables de su tecnología fueron la
integración de mediana escala (MSI) en sus componentes y el uso de circ u i t o s
i m p resos para montar sus partes. Su precio al públco era de 8,000 dólares y se
v e n d i e ron más de 50,000 NOVAS en toda la historia de la marc a .
Altair MITS 8800
Considerada como la primera computadora personal de la historia, la MITS
Altair 8800 costaba únicamente 395 dólares, con el pequeño inconveniente de
que tenía que armarla uno mismo. Con un micro p rocesador Intel 8080 de 8 bits
como cere b ro principal, el “kit” para armar la Altair 8800 incluía 256 bytes de
memoria, una pantalla de luces indicadoras y una serie de interru p t o res que
operaban como entrada de datos. Si uno quería dispositivos adicionales, como
teclados o terminales de vídeo, tenía que acudir a alguna de las compañías que
c o m e n z a ron a hacer tarjetas de expansión para la Altair.
En 1975, MITS lanzó al mercado versiones de 4Ky 8Kbytes de memoria de la
A l t a i r, que incluían una versión especial del lenguaje BASIC, el primer
p roducto desarrollado por Bill Gates y Paul Allen en su nueva compañía:
M i c ro s o f t .
Apple II
La “Fiebre de sábado por la noche” aún hacía temblar las pantallas
cinematográficas del mundo cuando Apple puso en el mercado la segunda
computadora personal de la firma de Steve Jobs y Steve Wosniak, en Cupert i n o ,
C a l i f o rn i a .
La Apple II, primera computadora personal considerada como herr a m i e n t a
para negocios, ayudó a eliminar la idea de que estos equipos eran útiles
únicamente como juguetes y para experimentos. Esta computadora incluía un
teclado, monitor gráfico, ocho ranuras de expansión fácilmente accesibles y el
lenguaje de programación BASIC integrado. Algunas de sus innovaciones, como
la capacidad integrada para desplegar gráficas de alta resolución y su lenguaje
de programación gráfico de alto nivel, eran características extraordinarias en
máquinas de escritorio hasta hace menos de cuatro años. En su configuración
inicial con un micro p rocesador Motorola 6502, 16 Kbytes de RAM y una unidad
lectora de casetes (en serio, lector, de casetes de audio), la Apple II costaba 1,298
d ó l a re s .
Radio Shack TRS-80
Con la gran ventaja de venderse en la cadena de tiendas de electrónica más
grande de Estados Unidos (Radio Shack), la TRS-80 fue la primera
m i c rocomputadora que utilizó el procesador Zilog Z80. La unidad base consistía
en un ancho teclado con 4 Kbytes de RAM y otros 4 Kbytes de ROM (que incluía
BASIC). La mayoría del “software” inicial para esta máquina se distribuyó en
casetes de audio que se re p roducían en las comunes grabadoras Tandy de Radio
S h a c k .
X e rox Star
Del inagotable genio creador de los laboratorios Xerox, la Star salió a la calle
en 1981 con una serie de innovaciones espectaculares, entre ellas el “mouse”
(ratón) y la primera interfase gráfica. La Xerox Star no fue precisamente un
éxito de mercado a pesar de toda su tecnología, y su alto precio fue la principal
causa: el costo del equipo básico era de 50,000 dólare s .
IBM PC
La IBM PC es sin duda el equipo más significativo en este “Siglo de la
computación”. No sólo dio inicio a la revolución mundial de las computadoras
personales, sino que además fue causante de la ironía más grande de la historia:
IBM, el más poderoso fabricante de computadoras centrales de la época, lanzó
al mercado un pequeño equipo que cambió al mundo, y en 15 años hizo obsoleto
el producto principal de su cre a d o r.
Las microcomputadoras IBM PC utilizaban un micro p rocesador Intel 8088,
venían equipadas con 64 Kbytes de memoria RAM y una unidad de disquete
flexible de 5.25 pulgadas. El equipo básico costaba 3,000 dólares, y como
accesorios opcionales se vendían el adaptador para impresora, el monitor
m o n o c romático y el adaptador para gráficas de color.
Compaq Port a b l e
16 años antes de la oveja Dolly, la Compaq Portable hizo famoso el verbo
“clonación”, al crear la primera computadora de éxito 100% compatible con la
IBM PC. A pesar de su enorme tamaño y peso para un aparato considerado como
la primera “PC portátil”, Compaq ganó rápidamente fama por la calidad de su
tecnología y dio legitimidad a los nacientes equipos “compatibles”. En térm i n o s
reales, sin embargo, se puede considerar a la Compaq Portable como el primer
sistema “patito” de la historia.
Radio Shack TRS-80 Modelo 100
Muchos años antes de las computadoras “notebook” y “subnotebook” PC
compatibles, Radio Shack lanzó una máquina realmente portátil (del tamaño de
un libro) y con una combinación de características (peso, tamaño, vida de
batería y precio) que aún hoy es imposible de vencer (claro, la TRS-80 nunca
tuvo que correr bajo Wi n d o w s ) .
El Modelo 100 incluía, por 800 dólares, una pantalla de cristal líquido (LCD)
de 8 renglones por 40 columnas, tenía integrado un editor de textos, una
aplicación de comunicaciones y un lenguaje BASIC para pro g r a m a r. Incluía
también un módem (de 300 bits por segundo), puertos de entrada y salida (para
conectarle una grabadora de audiocasetes, por ejemplo), memoria RAM y un
excelente teclado. Pesaba menos de 2 kilogramos y dos pequeña baterías “AA”
alcanzaban para varias semanas de trabajo, lo que la hizo rápidamente la
primera “laptop” popular, especialmente entre los periodistas.
Apple Macintosh
Si la IBM PC cambió al mundo en 1981, en 1984 Apple cambió para siempre
la forma de utilizar las computadoras, con la introducción de la Macintosh. En la
“Mac”, la interfase gráfica y el uso del ratón eran no sólo necesarios, sino
obligatorios para trabajar con el equipo, un cambio radical respecto al
legendario concepto de la PC y su complicados comandos de MS-DOS. En poco
tiempo, la Macintosh, combinada con el lenguaje Postcript de Adobe, el
p rograma Aldus Pagemaker y las impresoras Láser, se convirtió en el sistema
favorito de los artistas gráficos y comenzó la era del “desktop publishing” (pre -
p rensa de escritorio).
La Apple Macintosh original tenía un micro p rocesador Motorola 68000 (de 16
bits), costaba 2,495 dólares e incluía 128 Kbytes de memoria, un monitor
m o n o c romático de alta definición, el sistema operativo de la Mac y un ratón de
un sólo botón.
IBM AT
El lanzamiento del modelo avanzado de PC de IBM (AT significa “Advanced
Technology”) definió nuevos esquemas de rendimiento y capacidad de
almacenamiento. Un nuevo micro p rocesador de Intel, el 80286, fue el cere b ro de
la nueva máquina que corría a la increíble velocidad de 6 Mhz (6 millones de
ciclos por segundo) y su estructura interna de 16 bits elevaba varias veces el
rendimiento de la AT respecto a los sistemas anteriores de IBM. La capacidad
del disco duro también se duplico, de 10 a 20 megabytes, y el costo por megabyte
de almacenamiento se redujo dramáticamente.
Otras innovaciones importantes de la IBM AT fueron la unidad de disquete
de “alta densidad” (1.2 Mbytes) y todo venía acompañado de la nueva versión del
sistema operativo MS-DOS (la versión 3.0). El precio del paquete completo, con
512 kbytes de RAM, superaba los 5,000 dólare s .
Compaq Deskpro 386
Tres años después de la AT, y mientras IBM perdía tiempo desarrollando el
sistema “Microcanal” (que resultó un completo fracaso comercial), Compaq
nuevamente se adelantó y lanzó al mercado las primeras máquinas con el
m i c ro p rocesador Intel 386: la Compaq Deskpro 386. Al contrario de los fiascos
PS/2 de IBM (Microcanal), la Deskpro 386 era totalmente compatible con el
estándar AT anterior, lo que aseguraba que toda la inversión previa en
“ s o f t w a re” se podía reutilizar por completo.
N e x t S t a t i o n
El temperamental Steve Jobs, fundador de Apple y creador de la Macintosh,
separado contra su voluntad de la firma que había creado en 1976, intentó
competir contra Apple en el mercado de las estaciones de trabajo gráficas, al
lanzar en 1988 la NextStation.
Esta singular computadora de espectacular diseño utilizaba tecnología muy
adelantada para su época y un sistema operativo basado en UNIX, con interf a s e
gráfica, que rivalizaba con las mejores Macintosh del momento. Con un pre c i o
en la calle cercano a los 10,000 dólares, la elegante NextStation estaba equipada
con un micro p rocesador Motorola 68030 de 25 Mhz, 8 Mbytes de memoria RAM y
la primera unidad comercial de discos magneto-ópticos de 256 Megabytes de
capacidad. La falta de “software” compatible adecuado, sin embargo, condenó
un excelente diseño a quedar como pieza de museo por la falta de aceptación
del merc a d o .
Nec Ultralite
La Ultralite de NEC (Nippon Electric Company) fue la computadora port á t i l
que puso el término “sub-notebook” en el diccionario. Similar en tamaño a la
TRS-80 modelo 100 de Radio Shack, la Ultralite tenía de ventaja de trabajar bajo
MS-DOS y, por tanto, era compatible con todas las aplicaciones existentes.
La Ultralite se hizo popular por su tamaño y carácter portátil, pero en esas
épocas no había discos duros miniatura y esa era su principal desventaja. La
pequeña máquina utilizaba memoria RAM (1 MB) protegida por baterías como
su medio principal de almancenamiento permanente, e incluía el eficiente
p rograma Laplink para transferir archivos a las computadoras de escritorio.
Sun SparcStation 1
Aunque no fue la primera estación de trabajo basada en UNIX, la Sun
S p a rcStation 1 definió un nuevo estándar para la relación pre c i o / re n d i m i e n t o
en computadoras de alta capacidad. Las máquinas UNIX de la época se
utilizaban principalmente para trabajos de diseño asistido por computadora
(CAD) o avanzado modelaje tridimensional en centros de investigación. Era
capaz de ejecutar la enorme cantidad de 12.5 millones de instrucciones por
segundo (MIPS) y su precio inicial era de “sólo” 8,995 dólare s .
Newton Message Pad-Apple
Aunque nunca tuvo éxito commercial, el Newton Meesage Pad de Apple fue
la primera computadora de bolsillo que, por su tecnología, inspiró a los
d i s e ñ a d o res de artículos de cómputo “para llevar en la bolsa”. Apple invirt i ó
500 millones de dólares en un diseño vanguardista y la tecnología de la máquina
incluía reconocimiento de caracteres escritos (aunque había que enseñarle un
p o c o ) .
Palm Pilot
Palm Computing Inc. lanzó al mercado la “Pilot” en abril de 1996. El curioso
aparato (que pronto se renombró como “PalmPilot”) era suficientemente
pequeño para caber en la bolsa de la camisa, suficientemente poderoso para
almacenar miles de direcciones y citas, y suficientemente barato para atraer al
m e rcado masivo. En los siguientes 18 meses se vendieron más de un millón de
Pilots. Hasta entonces era el producto de cómputo con mayor número de
unidades vendidas en menor tiempo en toda la historia. La compañía Palm
Computing fue adquirida en 1998 por 3COM.
MERIDA, YUCATAN, MEXICO, NOVIEMBRE DE 1999
El siglo de la computación
(1954)
(1982-83)
(1984)
(1987)
(1988)
(1989)
(1996)
(1960)
(1965)
(1964)
(1969)
(1974)
(1977)
(1981)
Información Sergio Basurto Pérez Diseño: Diario de Yucatán / Depto. de Diseño Editorial / JR
(1993)
2A. parte
A pesar de los miles de espectaculares avances
tecnológicos del siglo XX, este período será recordado
por la historia como el inicio de la “Era de la
información”.
Desde los enormes monolitos de la década de los 40,
hasta los microscópicos dispositivos que utilizamos hoy
en los relojes digitales, las computadoras han sido la
punta de lanza para el desarrollo de la tecnología de
información y para el crecimiento de una gigantesca
industria que hoy incluye a algunas de las compañías
más poderosas del planeta.
En esta segunda parte de nuestros reportajes especiales
sobre “El siglo de la computación” (la primera se
publicó el lunes 18 de octubre ppdo., en I m a g e n ), presentamos
“Las computadoras más importantes” de la
centuria que termina. La próxima quincena continuaremos
la serie con lo mejor del “software” y las aplicaciones
desarrolladas en la breve historia de esta tecnología.
Estos reportajes especiales también estarán disponibles
para todo el público en la versión electrónica del
Diario de Yu c a t á n (h t t p : / / w w w. y u c a t a n . c o m . m x) ,
desde donde se podrán consultar en su formato original
o en formato de páginas Internet para reutilizar la información.
Para comentarios o sugerencias, favor de dirigirse a
computacion@sureste.com

El siglo de la computación

tecnológicos del siglo XX, este período será recordado
por la historia como el inicio de la “Era de la
información”.
Desde los enormes monolitos de la década de los 40,
hasta los microscópicos dispositivos que utilizamos hoy
en los relojes digitales, las computadoras han sido la
punta de lanza para el desarrollo de la tecnología de
información y para el crecimiento de una gigantesca
industria que hoy incluye a algunas de las compañías
más poderosas del planeta.
En esta segunda parte de nuestros reportajes especiales
sobre “El siglo de la computación” (la primera se
publicó el lunes 18 de octubre ppdo., en I m a g e n ), presentamos
“Las computadoras más importantes” de la
centuria que termina. La próxima quincena continuaremos
la serie con lo mejor del “software” y las aplicaciones
desarrolladas en la breve historia de esta tecnología.
Estos reportajes especiales también estarán disponibles
para todo el público en la versión electrónica del
Diario de Yu c a t á n (h t t p : / / w w w. y u c a t a n . c o m . m x) ,
desde donde se podrán consultar en su formato original
o en formato de páginas Internet para reutilizar la información.

Para la historia de la humanidad.

Para la historia de la humanidad, que
se remonta a más de 200,000 años, el siglo
XX re p resenta apenas una diminuta fracción
en el tiempo. En estos escasos 100
años, sin embargo, los seres humanos
hemos visto cambios tan espectaculare s
en tantas ramas del conocimiento, que
resulta muy difícil imaginarnos ahora la
f o rma como vivían nuestros ancestro s
hace apenas una par de generaciones.
Desde el motor de combustión intern a
que eliminó la tracción animal y dio origen
al automóvil y al aeroplano, hasta la
e n e rgía atómica con sus enormes riesgos y
beneficios, la lista de innovaciones y descubrimientos
en esta centuria re b a s a r í a
con mucho la imaginación más pro l í f i c a
de los Ve rne, Newton, Da Vinci o cualquier
ilustre inventor visionario de los
siglos anteriores.
A pesar de todos los avances que han
e n m a rcado esta época, si pudiéramos adelantar
el tiempo y ver la historia de la
humanidad dentro de 1000 años, veríamos
que el siglo XX será re c o rdado por las futuras
generaciones como el período que dio
inicio al procesamiento electrónico de
datos y a la automatización de las operaciones
repetitivas. Este será llamado el
Siglo que marcó el inicio de la Era de la
I n f o rmación, el Siglo de la Computación.
Estos re p o rtajes especiales estarán también
disponibles para todo el público en la
versión electrónica del Diario de Yu c a t á n
( h t t p : / / w w w.yucatan.com.mx), desde donde
se podrán consultar en su formato original
y en el formato de Internet para re u t i l i z a r
la información.
El siglo de la computación
1
H e rman Hollerit.– La oficina de censos estadounidense no terminó el censo de 1880 sino
hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de
cada diez años tardaría más que los mismos diez años para terminarlo. La oficina de
censos comisionó a estadística Herman Hollerit para que aplicara su experiencia en
tarjetas perforadas y llevara al cabo el censo de 1890. Con el procesamiento de tarjetas
p e rforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo
t res años y la oficina se ahorró alrededor de $ 5.000,000 de dólares. El cambio de siglo
m a rcó el inicio del procesamiento automatizado de datos.
Las Máquinas Electromecánicas de Contabilidad (MEC).– Los resultados de las máquinas
tabuladoras (calculadoras) tenían que llevarse al corriente por medios manuales, hasta
que en 1919 la Computing Ta b u l a t i n g - R e c o rding-Company anunció la aparición de la
i m p resora/listadora. Esta innovación revolucionó la manera en que las compañías
efectuaban sus operaciones. Mientras la tecnología automotriz también evolucionaba y la
planta Ford en Detroit sacaba al mercado los últimos "modelo T", en 1924 la compañía
cambió el nombre por el de International Bussines Machines Corporation (IBM) para
reflejar mejor el alcance de sus intereses comerciales. Durante décadas, desde mediados
de los cincuentas, la tecnología de las tarjetas perforadas se perfeccionó con la
implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta
contenía en general un re g i s t ro: un nombre, dirección, etc., el procesamiento de la tarjeta
p e rforada se conoció también como procesamiento de re g i s t ro unitario.
A t a n a s o ff Y Berry. –Una antigua patente de un dispositivo que mucha gente creyó que era
la primera computadora digital electrónica se invalidó en 1937 por orden de un tribunal
federal, y oficialmente se le dio el crédito a John V. Atanasoff como el inventor de la
computadora digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de
Iowa, desarrolló la primera computadora digital electrónica entre los años 1937 y 1942.
Llamó a su invento la computadora Atanasoff - B e rry, o sólo ABC (Atanasoff Berry
Computer). Un estudiante graduado, Cliff o rd Berry, fue una útil ayuda en la fabicación de
la computadora ABC.
La ENIAC.–Después de años de investigaciones, la primera computadora electrónica
completamente operacional en gran nivel se terminó en 1946 y se llamó ENIAC (Electro n i c
Numerical Integrator And Computer) o Integrador Numérico y Calculador Electrónico.
La ENIAC, fabricada para aplicaciones de la Segunda Guerra Mundial, fue terminada en
30 meses por un equipo de científicos que trabajaban contrarreloj. No estuvo lista a
tiempo para la guerra, pero los juicios a los Nazis en Nure m b e rg ya se efectuaron en un
mundo libre y con computadoras comerc i a l e s .
Mil veces más veloz que sus predecesoras electromecánicas, la ENIAC irrumpió como un
i m p o rtante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y
ocupaba un espacio de 450 metros cuadrados, llenaba un cuarto de seis por 12 metros y
contenía 18,000 bulbos, consumía 200 KW de energía eléctrica y requería todo un sistema
de aire acondicionado, pero tenía la capacidad de realizar cinco operaciones aritméticas
en un segundo. Debía programarse manualmente, conectándola a tres tableros que
contenían más de 6,000 interru p t o res. Ingresar un nuevo programa era un proceso muy
tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales
que operan con un sistema binario (0,1), la ENIAC operaba con uno decimal (0,1,2…9).
El Disco Duro . –Al mismo tiempo que los soviéticos lanzaban el Sputnik I al espacio, IBM
pone en el mercado el primer "Sistema de almacenamiento en discos duros", en una época
en que la información se guardaba por lo general en cintas magnéticas . El primer
RAMAC-305 (Ramdom Access Method of Accounting and Control) consistía de 50 cilindro s
de 24 pulgadas de diámetro cada uno y almacenaba un gran total de 5 Mb, una gigantesca
cantidad de espacio para los estándares de ese tiempo. Su tamaño era del doble de un
refrigerador moderno y tener uno costaba 35,000 dólares al año (IBM rentaba los
dispositivos).
C o rreo electrónico.–

CD-ROM´s.– El CD-ROM (Read Only Memory)

CD-ROM´s.– El CD-ROM (Read Only Memory) llegó al mercado de las computadoras
en 1984 como una extensión del Disco Compacto (CD) de audio, desarollado en 1980
por Sony y Phillips. La alta resistencia, durabilidad y gran capacidad de
almacenamiento (hasta 650 megabytes) de este dispositivo han permitido que el
concepto "Multimedia" (manejo de texto, imágenes, música y vídeo) pase de los
laboratorios y centros de investigación a las casas de todo el mundo.
El ratón.– El diseño original del "dispositivo apuntador" se publicó en 1963, pero no
fue sino hasta 19 años después cuando tuvo aplicación comercial. En 1982, mientras
Margaret Thatcher despachaba miles de soldados ingleses al otro lado del mundo en
la guerra de Las Malvinas, Mouse Systems lanzó el primer roedor comercial para la
IBM-PC. No sabemos si son las computadoras las que no están diseñadas para los
humanos o somos nosotros los que no estamos diseñados para manejar estas
máquinas, pero ningún otro dispositivo ha hecho tanto para ligar simbólicamente a
las computadoras con nuestra humanidad como el sencillo e infalible "ratón".
Redes Ethernet.– La versión 1.0 de la especificación para crear una red de datos
de alta velocidad fue publicada en septiembre de 1980 por Robert Metcalf, otro de
los cerebros innovadores del Xerox PARC. La topología de red Ethernet (10
millones de bits de segundo de velocidad entre máquinas) fue tan adelantada a su
época, que 20 años después sigue siendo el estándar universal de conectividad.
Ethernet define el medio físico de comunicación y la forma como los datos
(frames) se transfieren sobre una red de área local (LAN).
Impresoras Láser .– Los goles del "Matador" Kempes y el primer Campeonato Mundial
de Fútbol para Argentina se suceden mientras Gary Starkweather, del Centro de
Investigaciones Xerox, en Palo Alto, California (Xerox PARC), hallaba la manera de
unir la tecnología de las copiadoras Xerox con un rayo láser para producir imágenes
en papel enviadas desde una computadora. Durante los años 80, las impresoras láser
(y el lenguaje Postscript

Redes de sensores sin cable

Redes de sensores sin cable
Una de las tecnologías que cambiarán el mundo según MIT Technology Review son las redes de sensores sin cable.

¿Qué son redes de sensores sin cable? Son redes de nano aparatos autónomos capaces de una comunicación sin cable y suponen uno de los avances tecnológicos más investigados en la actualidad. A través de redes de sensores, se puede integrar funcionalidades que antes eran independientes unas de otras, con el fin de lograr máxima eficiencia sobre todo en los campos de consumo y gestión de energía.

Las redes de sensores con cable no son nuevas y sus funciones incluyen medir niveles de temperatura, líquido, humedad etc. Muchos sensores en fábricas o coches por ejemplo, tienen su propia red que se conecta con un ordenador o una caja de controles a través de un cable y, al detectar una anomalía, envían un aviso a la caja de controles. La diferencia entre los sensores que todos conocemos y la nueva generación de redes de sensores sin cable es que estos últimos son inteligentes (es decir, capaces de poner en marcha una acción según la información que vayan acumulando) y no son limitados por un cable fijo.

Pero nuevos avances en la fabricación de microchips de radio, nuevas formas de routers y nuevos programas informáticos relacionados con redes están logrando eliminar los cables de las redes de sensores, multiplicando así su potencial.

Las redes de sensores pueden utilizar distintas tecnologías de sin cable, incluyendo IEEE 802.11, LANS sin cable, Bluetooth y identificación de la frecuencia de radio. Actualmente se trabaja con radios de baja frecuencia con un alcance de hasta 80 metros y velocidades de hasta 300 Kb/segundo.

Las últimas investigaciones apuntan hacia una eventual proliferación de redes de sensores inteligentes, redes que recogerán enormes cantidades de información hasta ahora no registrada que contribuirá de forma favorable al buen funcionamiento de fábricas, al cuidado de cultivos, a tareas domésticas, a la organización del trabajo y a la predicción de desastres naturales como los terremotos. En este sentido, la computación que penetra en todas las facetas de la vida diaria de los seres humanos está a punto de convertirse en realidad.

Aunque la tecnología relacionada con las redes de sensores sin cable está todavía en su primera fase, equipos de investigación en la Universidad de California Berkeley ya han fabricado una caja que se puede adaptar a muchos tipos de sensores. Los científicos utilizan los sensores sin cable para encontrar y controlar microclimas y plagas en plantaciones de uva, para estudiar los hábitos de aves y para controlar sistemas de ventilación y calefacción. En la Universidad de California Los Angeles, investigadores utilizan las redes de sensores sin cable para recibir información detallada sobre el efecto de los movimientos sísmicos en los edificios.

Si los avances tecnológicos en este campo siguen a la misma velocidad que han hecho en los últimos 2 años, las redes de sensores sin cable revolucionará la capacidad de interacción de los seres humanos con el mundo.