Nuevas tecnologías en estudio para los microcircuitos de computadoras
Para el público en general, la computación es algo hecho de imágenes y palabras. ¡Minga! Las compañías de electricidad porteñas nos recuerdan, cada tanto que el cobre todavía es indispensable. Y el silicio, ni hablemos. Una computadora acepta nuestras palabras, escanea nuestras imágenes y las transforma en algo que solo ella entiende. Y ese algo es un (aparente) maremagnum de tensiones y corrientes eléctricas circulando por hilos metálicos entre pastillas de silicio increíblemente complicadas. El silicio es una materia gris (bastante más vulgar que la que llevamos detrás de las cejas), a la que le agregan cantidades infinitesimales de otras porquerías para que se porte como un semiconductor y se puedan hacer transistores con ello.
El primer transistor se diseñó en los Laboratorios Bell en 1947. Los padres de la criatura, Bardeen, Brattain y Shockley se llevaron un premio Nobel por ello. Pero, si eso hubiera sido todo, yo no estaría tipeando esto en mi PC. Lo más pequeño en computadoras con componentes discretos no cabría en esta pieza y yo no hubiera tenido dinero para comprarla. En 1958, Jack Kilby, de Texas Instruments y Robert Noyce, de Fairchild Semiconductor, desarrollaron casi al mismo tiempo los primeros circuitos integrados. Y no les dieron ningún Nobel1, pero fueron los circuitos integrados (digamos chips, es mas corto) los que hicieron posibles las computadoras personales y el Aleph no místico que llamamos Internet.
En 1965 Gordón Moore era el Jefe de Investigaciones de Fairchild Semiconductor. Después fue uno de los fundadores INTEL (¿les suena?). Pero en 1965, cuando le pidieron una predicción sobre el futuro de la industria de los microchips, no tenía demasiada información concreta en que basarse. Así y todo, sabía que el año anterior el máximo grado de amontonamiento industrialmente obtenible era de 32 transistores en un chip y ese año era exactamente el doble. Así pues, predijo que la complejidad de los circuitos iba a duplicarse anualmente durante al menos los diez próximos años. Acertó. Llamaron a esto la "ley de Moore". En 1975 Moore revisó su propia estimación y predijo que el ritmo iba ser, a priori, de duplicación cada dos años por unos añitos más. Hasta ahora, va siendo.
Por si no lo sabían, eso es un crecimiento exponencial. O sea, explosivo. Y en los últimos años este crecimiento produjo una caída igualmente rápida en los precios de las computadoras. Muchos economistas opinan que el sostenido crecimiento de la economía americana desde 1995 hasta la fecha está totalmente vinculado a la ley de Moore. ¿Por qué ahora, si la ley de Moore data de 1965? Bueno no sé, pregúntenle a los economistas. Yo soy una ingeniera, no trato de explicar el comportamiento de los sistemas caóticos. Pero Paul A. David, historiador económico de la Universidad de Stanford afirma que la electricidad tardó más de dos décadas en tener un impacto en la productividad.
Algo que sí me llamó la atención en estos últimos años es la increíble capacidad de generación de demanda de sí misma que tiene la industria de la computación. Uno instala el nuevo W... sistema operativo y descubre que su motherboard es insoportablemente lento. Cuando cambia el motherboard, el disco es una carreta, y además con el nuevo operativo el driver del scanner no funciona y con el nuevo scanner, que es bárbaro, se nota que el monitor da asco y la impresora tiene una definición de mierda y además los .tif ya no caben en floppy. Por otra parte, las aplicaciones para el nuevo operativo son fascinantes pero son varios CD's y la lectora de CD vieja es demasiado lenta... ¿sigo?. No, todos conocemos la historia. Y ahora salió el W-2000. Dios nos ampare.
Ahora bien, el duplicar bianualmente la complejidad de los circuitos integrados (con el consiguiente aumento de velocidad y capacidad de almacenamiento), quizás no sucede porque hay urgencia para el progreso del conocimiento tecnológico, sino porque la permanente, alucinada, renovación de la tecnología es uno de los motores de este tren fantasma. Por lo menos eso parece probable. Las corporaciones no tienen ideales, tienen balances.
Así que, finalmente, las ventajas económicas de la ley de Moore están siendo reconocidas por los economistas. Y así cuando la industria del microchip está accediendo al único podio que los poderosos de esta época reconocen, parece probable que la ley de Moore esté empezando a desfallecer.
El final de la ley de Moore fue predicho ya varias veces, pero esta vez es muy probable que vaya en serio. Un microchip industrial tienen delimitadas en su interior, "áreas" que cumplen distintas funciones, algunas son partes de un transistor, un diodo, un capacitor o un resistor o lo que sea, otras son los "cables" que arman el circuito, etc. Las más pequeñas de estas partes ya van siendo tan chicas como 180 nanómetros. Para mantener la actual tasa de crecimiento de la miniaturización (implícita en el aumento de complejidad), el tamaño de estas áreas de mínima debería andar en 100 nanómetros para el 2005. Y para producir microcircuitos con elementos de ese tamaño, la industria tendría que resolver problemas fundamentales que aún no tienen "solución conocida".
Paul Packan (INTEL) identificó en un artículo para Science, en Septiembre del 99, los problemas principales:
Los costos de fabricación de los integrados crecen con la complejidad. Aunque se encontrasen soluciones tecnológicas a estos límites teóricos, la necesidad de resolver problemáticas tan complejas puede requerir cambios masivos de tecnología de fabricación que llevarían los costos a un punto impracticable.
Y entonces ¿qué? Una posibilidad es un cambio, parcial o total, del material que se está utilizando para implementar circuitos digitales. El silicio y la computación no son siameses, aunque desde el punto de vista de año 2000 puede parecer que es así. Se ha trabajado en semiconductores de arseniuro de galio y en computadoras ópticas. Pero también se están investigando algunas posibilidades realmente exóticas para reemplazar a los circuitos integrados de silicio. Moléculas orgánicas modificadas para darles propiedades eléctricas, como elementos de almacenamiento y conmutación; propiedades cuánticas de los átomos para almacenar información; cultivos de bacterias utilizables como computadoras biológicas, para cálculo y almacenamiento de datos, material genético de las células vivas (DNA, RNA, proteínas) utilizadas como circuitos lógicos. Estos no son delirios. Cada uno de estos enfoques esta siendo seriamente explorado como sucesor del silicio. Cada uno puede ser el futuro de la computación. También puede que haya computadoras tostadas de jamón y queso. Chi lo sa... Puede que uno de estos días vuelvan a inventar los ábacos.
Dentro de un microchip está todo tan apretado como nosotros en el subterráneo, a la hora pico. El esfuerzo tecnológico actual está orientado a que todos y cada uno de los componentes sean cada vez más chicos, no para que quede más espacio libre, sino para poder apretarlos más. El elemento más chico, (sea un componente en sí mismo o un elemento dentro un componente) puede tener, con los métodos de fabricación actuales, unos 180 nanómetros. Con suerte, dicen los expertos, podrían seguir achicándose hasta unos 100 nanómetros. Más allá de ese límite, los fenómenos cuánticos se van a poner insoportables, lo que quiere decir que los integrados se van a poner impredecibles.
En cambio, las moléculas (aún muchas de las moléculas orgánicas complejas) sólo miden unos pocos nanómetros y no se hacen drama. Si fuese posible conseguir que una molécula se porte como un componente electrónico, y conectar un pequeño número de ellas juntas, para formar circuitos, sería exactamente lo que hace falta. El diseño de las computadoras, por supuesto, cambiaría por completo. Las memorias moleculares podrían tener un millón de veces la densidad de almacenamiento de los mejores chips de memoria actuales y los temores de que la ley de Moore naufrague en algún momento próximo dejarían de existir.
Al menos en teoría, armar un dispositivo electrónico molecular es simple. El mayor problema es que es la mayoría de las moléculas orgánicas no conducen electricidad en absoluto y ni hablar de tener las propiedades electrónicas que necesarias para comportarse como un elemento de conmutación. Para que tal sistema funcione es necesario fabricar moléculas a medida. O sea, pedirle a un químico que nos fabrique una molécula que pueda pasar de "on" a "off " y viceversa en forma confiable y detectable (esta es la característica que permite usar el silicio tan exitosamente). Bueno, precisamente eso es lo que están haciendo.
Mark Reed es el jefe del departamento de Ingeniería Eléctrica de la Universidad de Yale. Últimamente ha estado usando las minúsculas moléculas orgánicas, que James Tour y otros químicos de la Universidad de Rice sintetizan para él, para fabricar memorias electrónicas y un circuito lógico simple, en el que las moléculas funcionan como minúsculos elementos de conmutación individuales. Por ahora, los dispositivos que hace son sólo toscos prototipos de laboratorio. Pero funcionan. Reed ha fabricado, últimamente, una compuerta lógica, que realiza a la misma función específica que un integrado de 7 transistores, con mucho menor tamaño y menor consumo de energía. Las moléculas que actúan como componentes pueden pasar de corriente "on" a "off " como si nada, y los elementos de memoria han dado señales de poder hacer algunas manganetas en materia de memoria y lógica que los semiconductores de silicio no pueden hacer. Por ejemplo, uno de los que Reed fabricó el año pasado retiene los datos por más de 10 minutos después de interrumpirse la energía y el padre de la criatura opina que podría extenderse y este periodo incluso hasta años. Sería, esencialmente, memoria no volátil.
Lo más notable, según Reed, es que estos dispositivos moleculares son sorprendentemente fáciles (y potencialmente baratos) de fabricar. Para tener computadoras moleculares completas y andando, todavía faltan décadas, pero, según Reed, algunos usos de la electrónica molecular podrían ser factibles mucho antes. En un futuro cercano, dispositivos moleculares ultra pequeños y baratos podrían combinarse con los de silicio reduciendo el número de transistores y la potencia requerida por los circuitos convencionales. Con estos fines Reed, Tour y algunos químicos de la Universidad Estatal de Pennsylvania han creado a un emprendimiento llamado Molecular Electronics. No quieren decir que es lo primero que van a fabricar, pero sí dicen que esperan tener algo funcionando en alrededor de dos años. También hay un grupo de colaboración entre químicos y científicos en computación de Hewlett-Packard y la Universidad de California, Los Ángeles. Este grupo, encabezado por R. Stanley Williams, ya definió las características de las moléculas que necesita para actuar como elemento de memoria o de conmutación y esperan construir un prototipo de circuito lógico integrando algunos dispositivos a escala nanométrica molecular en alrededor de 18 meses. ¡Guau!
La forma de fabricar estos circuitos es, por lo menos en teoría, muy simple. Se prepara una solución de las moléculas en cuestión, se sumerge en ella un sustrato de silicio en el que se ha depositado un patrón de electrodos metálicos. Si las moléculas están bien hechas, o sea si la química está correcta, las moléculas se ligarán a los electrodos de metal, orientándose prolijamente, por sí mismas. Después se deposita una segunda etapa de electrodos sobre las moléculas. Si todo sale como es debido, el resultado es una película de una molécula de espesor (monolayer) de moléculas orgánicas, hecha sándwich entre sus dos capas de electrodos metálicos. James Tour, de la Universidad de Rice y James Heath y Fraser Stoddart de la Universidad de California, Los Ángeles, son responsables de que la química involucrada salga bien. Los primeros resultados de importancia se dieron a fines del 99, cuando se sintetizaron varias moléculas orgánicas que realizan funciones simples de lógica y memoria. Los detalles de las moléculas son distintos en los dos grupos de investigación, pero ambos sacan partido de los mismos fenómenos cuánticos que están empezando a limitar a los integrados de silicio. Las moléculas que separan los electrodos deberían, normalmente, bloquear el flujo de corriente. Pero cuando hablamos del nanomundo los electrones a través de ellas por efecto túnel. La tensión aplicada a los electrodos permite ajustar la proporción de electrones que hacen ¡hop! y así conmutan la corriente de "on" a "off".
Los prototipos iniciales de los investigadores de California incluyen dos conjuntos de electrodos metálicos perpendiculares entre sí, armando una grilla con las moléculas ubicadas en los cruces. Por ahora están usando cables metálicos de cientos de nanómetros de diámetro con millares de moléculas en cada cruce, o sea un modelo a escala grande, para resolver los problemas de implementación de la lógica, pero esperan pasar este mismo año a cables de unos pocos nanómetros. Las mejores candidatas para trabajar de cables en estos nanocircuitos son, por ahora, las estructuras llamadas nanotubos de carbono. Son tubos de forma regular, de pocos nanómetros de diámetro, que pueden ser excelentes conductores para los electrones a través de los circuitos moleculares. El problema es que éstos nanotubos tienden a producirse formando una masa enredada, tipo spaghetti, que no se parece en nada a los prolijamente ordenados arreglos necesarios para fabricar circuitos complejos. Un físico de la Universidad de California, Berkeley, dice que construir estructuras con nanotubos es una forma de arte. Uno busca y recorta, de la masa de spaghetti, los retacitos que coinciden con lo que uno necesita. Pese a esta complicación, muy probablemente los nanotubos de carbono van a ser utilizados. Sus propiedades electrónicas y físicas son ideales. También se está trabajando con nanocables de silicio.
El blanco del corto plazo de la gente de Hewlett-Packard es una memoria de 16 bits de 100 nanómetros de lado y, poco después, un dispositivo lógico de tamaño similar. Uno de los problemas de hacer microelectrónica basada en la química es que, probablemente, los dispositivos moleculares sintetizados en cubas de productos químicos van a estar inevitablemente llenos de defectos ya que a la escala de las moléculas individuales las soluciones presentan fluctuaciones estadísticas. La gente de Hewlett-Packard tiene una solución de software para soslayar este problema. La idea es un programa que mapea el "enrejado" detectando las fallas y va ruteando el tráfico de información para esquivarlas. Quizás falte mucho para hacer andar este paralelismo masivo, pero no tiene ningún buen motivo para no funcionar.
Los equipos que están diseñando estos circuitos, aptos para ser montados en puntas de alfiler, se muestran muy optimistas. Otros científicos opinan que quizás sea posible fabricar algún día memorias moleculares, pero que es autoengaño suponer que van a estar listas para salir al mercado en cualquier momento. Mark Ratner, un químico que está hace mucho tiempo en el tema, propone usar los dispositivos moleculares para lo que mejor hacen: reconocer y responder a otras moléculas. Por ejemplo, podrían ser usados como minúsculos sensores y actuadores en bio-chips implantables, en el campo de la medicina.
Resumiendo, estos circuitos de tamaño ínfimo son, por ahora, sólo prototipos experimentales. Hay mucha polémica sobre cuándo o cómo va a ser posible fabricarlos, aún como elementos especiales incluidos en circuitos integrados convencionales y, ciertamente, nadie cree que se pueda fabricar, digamos, una agenda electrónica molecular en los siguientes diez años. Con todo, de las nuevas tecnologías que estamos repasando en esta serie de artículos, esta parece una de las más cercanas. Hay circuitos lógicos moleculares funcionando, por simples que sean. Hay memorias moleculares construidas, aunque a gatas alcancen para almacenar un número telefónico. Esta tecnología se parece, entonces, más a una exploración de nuevas técnicas que a una especulación. Espero que la fe de sus creadores se justifique. Aunque más no sea para que puedan fabricar una lap-top que no me obligue a desarrollar mis bíceps y estropear mi columna vertebral para poder llevarla de un lado a otro.
Deft Univ. of Technology | Cees Decker | Uso de nanotubos de carbón como nanocables y como dispositivos electrónicos: han conseguido construir un transistor de un solo nanotubo. |
Harvard University | Charles Lieber | Síntesis de arreglos de nanotubos de carbón para actuar como cables y dispositivos electrónicos. |
Hewlett-Packard/Ucla | R. Stanley Williams (HP), Phillip Kuekes (HP), Fraser Stoddart (UCLA), James Heath (UCLA) | Ensamblado químico de arreglos de conmutadores reconfigurables para memoria y lógica; el objetivo es construir una computadora personal. |
IBM Research | Phaedon Avouris | Estudio de las propiedades de los nanotubos; ha hecho un transistor de un único nanotubo. |
Rice University | James Tour | Desarrollar una computadora auto-armada con una red altamente interconectada de lógica y memoria; ha sintetizado moléculas con propiedades deseables. |
University of Colorado | Josef Michl | Construir una computadora molecular; ha hecho moléculas adecuadas y cables cortos. |
Yale University | Mark Reed | Colaboración con Rice University para construir una computadora molecular; ha fabricado elementos de memoria y conmutación moleculares. |
[1] | Nota: Más vale tarde que nunca. Se informó el 10 de octubre de 2000 (poco antes del cierre de este número de Axxón) que el premio Nóbel de física recayó sobre el estadounidense Jack Kilby (77), el alemán nacionalizado estadounidense Hans Kroemer (72) y el ruso Jaurès Alferov (70). Según la Academia de Ciencias de Suecia, "sentaron las bases de las modernas tecnologías de la información, en especial a través de la invención de los transistores rápidos, los diodos láser y los circuitos integrados (chips)". Kilby recibirá la mitad de los 915.000 dólares del Nóbel, mientras que el resto será repartido entre Kroemer y Alferov. |