Sistemas

Las computadores de hoy y del mañana


Las computadores de hoy y del mañana

Autor: Roberto Muñoz

—————————–

La siguiente generación de computadoras

Ante una creciente demanda de tecnologías de la información, donde la constante son equipos cada vez más rápidos, pequeños, eficientes y poderosos, la miniaturización hace esto posible. Para lograrlo se reduce el tamaño de los circuitos, se introducen más elementos y la distancia entre los transistores es más pequeña, con lo que se logra aumentar la velocidad, solo hay un gran problema, la miniaturización se acerca al tamaño del átomo.

Los últimos años del silicio

Cuando Gordon Moore en 1965 afirma que el número de transistores que contienen los chips, se duplica cada año, establece la conocida Ley de Moore. Poco más tarde sufre una modificación en su relación con el tiempo, el número de transistores en un chip se duplica cada 18 meses, esto quiere decir que cada 18 meses, por el mismo dinero se puede comprar un microprocesador con el doble de potencia. Esta ley resulta ser muy exacta desde entonces, pero lamentablemente esta ley va perdiendo vigencia, Intel líder mundial en fabricación de procesadores ya ha confirmado que no podrá ser mantenida en esta década la tendencia exponencial de la Ley de Gordon Moore.

Además son varias las voces que advierten que la ley no puede seguir a ese ritmo o por lo menos no con esa forma de fabricación de circuitos integrados, de seguir la tendencia en la reducción del tamaño de los componentes resulta inevitable la confrontación con las leyes de la mecánica cuántica, surgiendo así la necesidad de crear nuevos algoritmos y nuevas clases de hardware. Los expertos calculan que para dentro de 15 o 20 años se habrá alcanzado este límite, y habrá que usar otros sistemas para la fabricación de los circuitos integrados y por lo tanto de las computadoras.

El límite técnico

Imaginando que se puedan seguir elaborando componentes bajo la misma tecnología actual, se crearán circuitos en los que las capas aislantes que no tengan más que unos pocos átomos de espesor, si los materiales aislantes no se logran perfeccionar para obtener un aislamiento prácticamente perfecto, los circuitos fabricados de esta forma no funcionarían correctamente.

La tecnología actual permite fabricar pistas conductoras de 0.18 micras, esto es 500 veces más delgadas que un cabello humano, donde el radio del átomo es solo unas 1000 veces menor. Las capas de aislante que las separan pueden tener un espesor de cuatro o cinco átomos. La meta es poder crear pistas conductoras de 0.10 micras, con lo que los transistores poseerían tan solo 100 átomos cada uno.

Al producir dimensiones tan pequeñas las leyes de la física comienza a perder validez y es donde la física cuántica entra en acción. Al trabajar con esas dimensiones en los que se habrá un número reducido de electrones, la física cuántica lo regirá por probabilidades. Esto resulta una cuestión muy delicada partiendo las dificultades que presenta manipular átomos, además podría llegar a ocurrir que ya no tuviéramos un 1 o un 0 sino una probabilidad de tener cada valor. También se deberá solucionar el problema del abastecimiento del voltaje eléctrico.

El nuevo procesamiento

Sistema informático cuántico

El físico Richard Feynman estableció en 1981 que teóricamente cualquier sistema físico podría ser simulado en una computadora cuántica. Una computadora cuántica supuestamente sería capaz de procesar varios fragmentos de datos al mismo tiempo alcanzado una macro – procesamiento impresionante.

Los mecanismos que se utilizarán para procesar la información serían partículas individuales: átomos, moléculas de tamaño atómico, fotones, etc. Lo que les permite trabajar conjuntamente como ‘bits cuánticos’ o ‘qubits’ para formar la memoria y el procesador del ordenador. Los qubits interactúan unos con otros y pueden realizar ciertos tipos de cálculo avanzado con una velocidad exponencialmente mayor que los ordenadores actuales. Una computadora de este tipo podría ejecutar todos los cálculos posibles de una sola vez, por ejemplo, la computadora cuántica sería capaz de descomponer en números primos códigos de seguridad de 400 dígitos en algunas horas. Operación que a una computadora actual le demandaría unos 15 mil millones de años.

La computadora cuántica más compleja de hoy en día es la desarrollada por IBM. Contiene cinco qubits hechos de cinco átomos de flúor dentro de una molécula especialmente diseñada de forma que las rotaciones de sus núcleos pueden interactuar las unas con las otras como qubits, ser programadas mediante pulsos de radiofrecuencia y ser detectadas con instrumentos de resonancia magnética nuclear similares a los utilizados en hospitales y laboratorios químicos.

El gran reto de esta tecnología es sin duda su comportamiento cuántico. Esto implica que los desarrollos sean muy complejos, además de estar limitada la capacidad de las partículas cuánticas para crear elementos de calculo genérico y programables.

Biocomputación

En el 2001, científicos del Instituto Weizmann de Ciencia de Israel anunciaron que habían construido una computadora tan pequeña que podrían caber un millón de millones de ellas en una gota de agua. El software estaba compuesto de ADN y enzimas y podía realizar, en conjunto, mil millones de operaciones por segundo, un microlitro de solución puede contener tres billones de computadoras, que juntas pueden realizar sesenta y seis mil millones de operaciones por segundo.

Por ahora los esfuerzos de los científicos apuntan a crear lo que llaman ‘chip laboratorio’ y otros dispositivos a nanoescala diseñados especialmente para ordenar, medir y contar las diversas moléculas que forman la vida orgánica.

La idea de realizar computación con ADN no es muy nueva. Unas moléculas capaces de empacar datos son, en varios sentidos, perfectas para la tarea. Nadrian C. Seeman de la Universidad de New York han desarrollado una manera nueva y simple de unir tiras de ADN para simular compuertas lógicas O exclusivas.

Los investigadores sugieren que se aplicarían a casos especiales. Dos conjuntos de moléculas, al unirse, podría revelar una clave para desencriptar mensajes, además se podría programar el ADN para que ciertos materiales inteligentes puedan llegar a construirse a sí mismos.

Aunque resulta una tecnología poco desarrollada. Es claro que es una alternativa a tener en cuenta en el futuro en especial por su utilidad como computadoras biológicas para investigación molecular y bioquímica.

Otras Alternativas….

Computación molecular: La solución al problema de la miniaturización, se plantea la posibilidad de usar moléculas en lugar de switches. La ventaja es que las moléculas apenas tienen unos pocos nanometros. Actualmente se están construyendo dispositivos de este tipo que constan de una capa de unas pocas moléculas de espesor, la cual se sumerge en una capa de silicio con los electrodos incorporados.

También se trabaja en mejorar el cableado, se han desarrollado unos nanotubos de carbono para conducir electrones por su interior, reduciendo el problema del sobrecalentamiento asociado a la miniaturización.

Computación óptica: Se basa en reemplazar los electrones por fotones. Estos son más rápidos, no requieren de condiciones especiales para su transmisión. La lógica binaria se obtiene orientando en una u otra posición el fotón. Así pues los chips deben trabajar con fotones y no con electrones.

El futuro cercano

Actualmente científicos Real Academia Tecnológica de Estocolmo consiguieron desarrollar una tecnología que se basa en los electrones que orbitan en distintas direcciones en torno a los átomos, y que luego podrían entregar información con base en tal principio físico, dicha tecnología pudiera derivar en computadoras 1000 veces más rápidas que las actuales. Todo parece indicar que la computación del mañana no conocerá límites, en los años venideros el ser humano tendrá a su disposición “supermáquinas” al servicio de la ciencia e investigación, educación, industria, etc. Una nueva era ha comenzando.



Por Sistemas, el 17/01/2005.

Historias relacionadas

Volver al inicio