Últimos 10 avances científicos y tecnológicos

95
Últimos 10 avances científicos y tecnológicos Publicado el Mar 25, 2013(50) Comentarios Avisos Google Cirugia Laser Ojos Con Láser Excimer Lasik Corrige tu Visión, Contáctanos! www.toplaser.com.pe Cursos Gratuitos De Ingles Te Presentamos la Nueva Forma de Aprender Inglés a tu Manera www.ganandoconingles.com ISTOCKPHOTO/THINKSTOCK Repasemos los últimos 10 avances científicos y tecnológicos que han surgido recientemente de los laboratorios y los principales centros de investigación científica del mundo. Muchos de estos avances ya se encuentran entre nosotros día a día, otros los veremos próximamente. Esta es, a nuestro entender, la lista de los principales 10 avances de la ciencia y la tecnología de los últimos tiempos: Avances científicos y tecnológicos

Transcript of Últimos 10 avances científicos y tecnológicos

Últimos 10 avances científicos y tecnológicosPublicado el Mar 25, 2013(50) ComentariosAvisos GoogleCirugia Laser Ojos Con Láser Excimer Lasik Corrige tu Visión, Contáctanos! www.toplaser.com.peCursos Gratuitos De Ingles Te Presentamos la Nueva Forma de Aprender Inglés a tu Manera www.ganandoconingles.com

ISTOCKPHOTO/THINKSTOCK

Repasemos los últimos 10 avances científicos y tecnológicos que han surgido recientemente de los laboratorios y los principales centros deinvestigación científica del mundo. Muchos de estos avances ya se encuentran entre nosotros día a día, otros los veremos próximamente. Esta es, a nuestro entender, la lista de los principales 10 avances dela ciencia y la tecnología de los últimos tiempos:

Avances científicos y tecnológicos

Energía solar: Si bien es algo de lo que hace tiempo venimos escuchando, lo cierto es que cada vez hay más fabricantes de paneles solares, lo que ha abaratado los costes para los compradores. Sin embargo, el principal problema es que hay muchísima oferta y no tanta demanda, por lo que algunas empresas de paneles solares se encuentran al borde de la quiebra y no implementan las nuevas tecnologías para una fabricación y funcionalidad mejor.

Educación por Internet: Ya hace unos años un tímido entorno virtual para estudiantes, donde los profesores colocaban materiales y fechas de exámenes, hacía más fácil la tarea de estudiar. Hoy en día, universidades de primer nivel como Stanford o Harvard ofrecen hacer cursos y carreras de forma virtual, con conferencias por streaming, materiales escritos y audiovisuales y tutorías personalizadas según elidioma, la capacidad de aprendizaje e incluso la cultura.

Cambios en la energía nuclear: Recientemente se han presentado unos nuevos reactores más rápidos, que tienen numerosos beneficios. Por ejemplo, sólo necesitarán el 2% del sitio que utilizaba un reactor original para almacenar el combustible gastado, reducen el tiempo que los residuos deben ser almacenados de 300.000 años a 300.

Electrónica epidérmica: Con el avance de la electrónica flexible, se plantea imprimir directamente sobre la piel diversos dispositivos, para que las personas puedan utilizarlos durante largas temporadas, principalmente para tener un correcto control médico.

Nueva terapia contra el cáncer: Este tratamiento utiliza la terapia génica para inducir una respuesta inmune al cáncer. Se utilizan células del propio cuerpo para hacer copias adicionales de la hormona que regula esa respuesta contra el cáncer. Pero esta molécula es muy peligrosa, por lo que el paso más importante era controlar sus niveles, lo que se ha conseguido mediante una pastilla.

Discos duros más potentes: Empresas fabricantes de discos duros plantean que la nano impresión puede ser útil para duplicar la potencia de los discos duros.

Baterías más ecológicas: Finalmente se está comercializando una batería recargable metal-aire que reemplaza el diesel y la combinaciónplomo-ácido. Tienen más capacidad que las baterías de litio y también son más baratas.

Pantallas de celulares de zafiro: Este material es muchísimo más barato que el cristal de los teléfonos de hoy en día, es menos sensible y no se raya.

Smartphones y tablets con hologramas : HP ha desarrollado un tipo de visualización de hologramas sin necesidad de lentes o partes móviles.

Dispositivos cerebrales inalámbricos: Estos nuevos dispositivos cerebrales inalámbricos permitirán a las personas con problemas de movilidad muscular poder controlar su silla de ruedas o un ordenador con el pensamiento.

¿Qué les parecen estos últimos 10 avances científicos y tecnológicos? ¿Conocen algún otro que haya quedado fuera de esta lista?

¿Qué les parecen estos últimos 10 avances científicos y tecnológicos? ¿Qué creen que se debería inventar?

Presentacion de avances tecnologicos en la Exposición Internacional de Electrónica, les dejo algunas imagenes de los "aparatos" mas copados que se vieron, espero que les guste, aunque sean inalcanzables.

- Sony Cybershot DSC-G3

Con la de modelos existentes en el mercado, cada vez se hace másdificil innovar en el mundo de las cámaras fotográficas. Es por ello que la Cyber-shot DSC-G3 de Sony se merece toda nuestra atención, ya que se presenta como la primera compacta del mundo con WiFi que incluye su propio navegador web.

De esta manera, esta nueva cámara te permite hacer uso de los principales servicios online -algo que cada vez se está poniendomás y más de moda- subiendo las fotos y vídeos que realices, a

través del navegador web, para alojarlos así en Picassa, Flickr o Youtube, entre otros.

Incluye además certificado DLNA y entre sus especificaciones mundanas encontrarás un sensor de 10 megapíxeles, un zoom ópticode 4x, una pantalla LCD de 3,5 pulgadas y funciones como el detector de sonrisas, de sonrisas y de escenas.

La Cyber-shot DSC-G3 está ya disponible para adquirir por un precio de 500 dólares (unos 365 euros al cambio)

link: http://www.videos-star.com/watch.php?video=HERvfyQB1Tw

- Samsung Electronics - televisores planos iluminados por diodosLED

En los televisores de cristal líquido (LCD) el negro nunca es negro de verdad. Es gris. En las escenas nocturnas de las películas, la noche nunca se ve real y en esas imágenes oscuras no terminan de distinguirse bien los objetos y las personas. Al final, por mucho que traten de engañarnos con sus cifras las firmas de electrónica, el contraste de los televisores de cristal líquido nunca termina de ser suficientemente bueno (y eso que estas teles LCD son muy buenas representando los blancos). Esto es lo que tratan de solucionar los últimos televisores de Samsung de las seires 8000, 7000 y 6000 con la retroilumuinación de sus pantallas a base de diodos LED que la firma coreana tiene previsto lanzar al mercado.

Los grandes fabricantes de televisores llevan tiempo tratando deresolver este problema y la solución más efectiva que han encontrado tiene que ver con el uso de diodos LED para iluminar la pantalla. En lugar de colocar en la parte trasera lámparas fluorescentes de catodos fríos (CCFL), estas teles LCD usan diodos LED que son muy rápidas a la hora de encenderse y apagarse. Estos diodos hiperluminosos no están siempre encendidos. Se apagan cuando la imagen es negra del todo. Y ésa es la clave.

En el CES 2009 Samsung ha presentado esta nueva colección de televisores que funcionan con iluminación LED. Unos televisores que destacan por su escaso grosor, cualidad que permite diseños más artísticos y, lo que es más importante, un ahorro considerable en el gasto de energía

Como añadido útil, la mayoría de estos televisores contarán con conexión a algunos servicios de Internet como Flickr, Yahoo o incluso usarán el servicio InfoLink como lector de feeds RSS para recibir las últimas noticias. De momento, el precio y la fecha de salida de estos televisores, todavía es una incógnita.

- Palm presentó el Pre

l nuevo modelo ‘Palm Pre’, además de ser un excelente terminal, viene acompañado con la plataforma ‘WebOS’, un sistema operativo

que se maneja de forma táctil y que incorpora como novedad fundamental ‘Palm Synergy’ una tecnología que permite sincronizar distintas fuetes como Google, Outlook y Facebook. Deesta forma al ejecutar una consulta el teléfono no nos devolverásólo los resultados de la agenda sino que además buscará en los sms y mms, en nuestros hilos en redes sociales, o en sus entradas en Wikipedia o Google en caso de estar conectados. En palabras de Ed Colligan, presidente y CEO de la compañía “el teléfono no pretende ser un dispositivo dependiente de un ordenador de sobremesa, si no estar conectado directamente a la nube digital”.

Las distintas aplicaciones pueden estar operativas al mismo tiempo gracias a la capacidad multitarea del ‘Palm Pre’ algo quele diferencia del iPhone. No así la forma amigable y divertida de moverse entre ellas que es táctil y similar a la usabilidad del terminal de Apple.

Desde Palm se asegura que los desarrolladores tendrán una plataforma sencilla para poder hacer aplicaciones para el 'Palm Pre'. Un punto importante ya que es aquí donde nace con mayor desventaja con respecto al teléfono de la manzana y será en la medida en la que aparezcan aplicaciones realmente interesantes en la medida que podrá desbancar al iPhone.

Técnicamente similar al iPhone

El 'Plam Pre', que se espera esté en el mercado a mediados de 2009 y que según se comenta en algunos foros de internet, tendráun precio de unos 500 dólares, está dotado con el procesador másrápido de Texas Instrument y probablemente la solución más potente para un teléfono móvil.

De su exterior destaca su pantalla táctil de 3.1 pulgadas acompañada con un teclado físico, su tamaño: 59.5 por 100,5 y 16,95 mm, y un peso de 135 gramos.

Tiene una capacidad de 8 Giga Bites de los cuales 7.4 están disponibles para el usuario. Cuenta con GPS, WiFi, Bloetooth, estéreo A2DP y un puerto micro USB que permite conectarlo al ordenador así como usarlo de forma sencilla como disco duro extern.

Cuenta con sensores de luz y proximidad y acelerómetros. Lo que le capacita para, por ejemplo, ahorrar energía adaptando la luminosidad de la pantalla a la luz ambiente o apagando la pantalla cuando el usuario se pone el terminal en la oreja.

Pero, tal vez, una de las características que más llama la atención es su cargador sin cables, algo que hasta ahora ningún grande había ofrecido, ya no habrá que conectar el teléfono a unadaptador si que bastará con situarlo sobre el cargador.

Tras una época en la que las ‘Palm’ eran el gadget más devuelto en las tiendas nada más comprarlo ahora la empresa busca darle la vuelta a la tortilla y hace su apuesta poniendo sobre la mesaun dispositivo que promete, esperemos que no nos defraude.

link: http://www.videos-star.com/watch.php?video=JRnlzbuLRwM

- Sony Vaio P Series Lifestyle PC

Esperado, rumoreado y deseado, finalmente el VAIO P ya es oficial. El equipo de apenas 245 x 19.8 x 120 mm cabe en un bolsillo grande y es según Sony el más liviano del mundo con un peso de apenas 635 gramos.

El VAIO P tiene una pantalla ultra-wide de 8 pulgadas con resolución de 1600 x 768 pixeles, la cual incorpora tecnología XBRITE-ECO LCD para desplegar imágenes nítidas y brillantes. Además por el tamaño de esta, se pueden ver páginas web y documentos sin necesidad de hacer scroll lateral. En cuanto al teclado, este ocupa casi toda la superficie del chasis y ha sidodesarrollado con un espacio entre teclas que ayuda a reducir loserrores al escribir, incluso para las chicas de uñas largas.

El corazón de este “Lifestyle PC” es un procesador Atom Z520 de 1.33GHz, mientras que la memoria RAM es de 2GB y el disco duro de 60GB, pero puede usar hasta 128GB de SSD. Una cámara web de 1,3MP sirve para que saludes a tus amigos a la distancia.

La conectividad inalámbrica está a cargo de una tarjeta 3G para banda ancha móvil, WI-FI 802.11n y Bluetooth. La función de GPS

permite encontrar de manera fácil lugares de interés o direcciones y todo sin necesitar de conexión a internet (sólo enUSA y Canadá). El modo de booteo rápido (Instant Start Mode) permite el acceso a fotos, video, música o la web. La batería permite un uso de cuatro horas, pero de manera separada se venderá una que entrega ocho horas de energía. El sistema operativo por defecto es Windows Vista Home Premium y el precio de 900 dólares.

link: http://www.videos-star.com/watch.php?video=x0Sh7l948Hc

- Camara polaroid Zink

La firma Polaroid lanzó la versión digital de cámaras instantáneas que la hicieron famosa, una cámara de fotos que incluye una impresora sin tinta, lo bastante pequeña "para ser llevada a todos lados".

Esta innovación, presentada en el salón de la electrónica CES deLas Vegas, se lanza dos años después del cese de la producción de las cámaras Polaroid instantáneas con película.

La nueva cámara PoGo retoma la tecnología de la impresora Zink, lanzada hace un año y comercializada desde junio, que puede imprimir sobre papel térmico color las fotos enviadas por teléfonos celulares u otros aparatos portátiles.

"Basta presionar un botón para elegir entre las fotos digitales de la cámara, encuadrarlas o retocarlas, e imprimir en color, enmenos de 60 segundos, tomas de 5 x 7 cm, todo en un solo aparato", señala Polaroid.

"Es la versión digital de nuestra cámara instantánea, que los consumidores adoran desde los años setenta", dijo el director general de imágenes numéricas de Polaroid, Jon Pollock.

Polaroid, que se acogió a la protección de la ley de quiebras elmes pasado para conducir una restructuración, asegura que ya no es necesario sacudir las fotos impresas para acelerar el revelado de la imagen.

La cámara de fotos instantánea PoGo mide 11,75 x 7,5 cm y pesa menos de 300 gramos. La foto impresa sale del costado de la máquina y no por debajo como lo hacía la versión tradicional. Será comercializada en Estados Unidos a partir de marzo a unos 200 dólares.

AFP Latam

link: http://www.videos-star.com/watch.php?video=qxtpnQrfprU

- LG GD910

LG presentó un reloj con capacidad para telefonía celular de banda ancha, transmisión de video y una cámara. El LG GD910 saldrá a la venta este año, a un precio sin aclarar aún, aunque no se sabe si estará disponible en los Estados Unidos.

link: http://www.videos-star.com/watch.php?video=HcCi87KIELM

Espero que les haya gustado...

Fuentes:

http://www.gaceta.es/

http://es.engadget.com/search/?q=samsung+televisores&searchsubmit=

http://www.noticias24.com/tecnologia/noticia/918/camara-con-wifi-tv-de-leds-lo-nuevo-en-tecnologia-fotos/

http://www.tuexperto.com/2009/01/13/los-nuevos-televisores-de-samsung-llevan-iluminacion-led-ces-2009/

http://www.fayerwayer.com/2009/01/sony-vaio-p-series-lifestyle-pc/

Comenten!!!!

Muchas Gracias!!! Tagstecnolog�a Mundo avances �ltimos Compartir

0 11 0 0 Dar puntos 123456789+10

0 Puntos

Votos: 0 - T! score: 0 / 10

Seguir Siguiendo Dejar de seguir A favoritos 0

Seguidores

23.020

Visitas

2

Favoritos

¿Quieres recomendar este post a tus seguidores?

¿Seguro que deseas bloquear a este usuario?

¿Seguro deseas procesar este post?

Info

Los Mejores Avances Tecnologicos

Ciencia y Educación

Computadoras cuánticas, el futuro de la tecnología.

Noticias

Rayo láser que puede transferir toda una biblioteca en 10 s

Noticias

Actualidad Tecnología!

20 comentarios @PinguinoForro Hace 4 años0 con.. de su ma..!!!!que grosas!! cosas!! sobre todo el Reloj LG @yoeltisnado Hace 4años0 siii increibles, gracias por comentar! @el_tracker Hace 4años0 WoW Todo es Increible ... Viva la Tecnologia .. Nos acercan al Futuro @sistemdv Hace 4 años0 El futuro llego...hace rato. @loscelestes Hace 4 años0 Muy buenas cosas pero no me gusta mucho el reloj de LG ,

lo que mas me impacto fue la Camara polaroid Zink... @eragonpro Hace 4 años0 lo qmas me sorprendi fue la escaneadora portatil @frankstewart82 Hace 4 años0 Muy buen post

@ataquero Hace 4 años0 ME ENCANTO LA IMPRESORA!

BUEN POST @max6x6x6 Hace 4 años0 buen post, te falto el nokia N97 me lo compraria antes q la sony vaio @kikeee777 Hace 4 años0 eso es una impresora portatil? @jesusotaku Hace 4 años0 Jajajjaj y yo sin trabajo XD @tangato Hace 4 años0 Yo me comprémi actual vaio cr en japón hace dos años y ya estaba el led finito de samsung, lo miraba de adelante, de costado, de atrás, es como una cartulina... no sabía si volverme, si agarrarlo y salir corriendo o si pegarme un tiro en las... @anteojosdesol Hace 4 años0 excelete post segui posteando asi @LaCheno Hace 4 años0 lindo lindo!.... @gonza_97_09 Hace 4 años0

tremendo ojete !!!!!!!!

buen post @M4RT1N_82 Hace 4 años0 Buen post ! Tambien les dejoun blog de tecnología

*** @elcabezon17 Hace 4 años0 esta ta mejor @olmos5630 Hace 4 años0 @luqhas Hace 3 años0

@1996petter Hace 2 años0 http://www.taringa.net/posts/info/7439897/interesante-salud_-tecno_-avances.htm yoeltisnado

Regular

12 Seguidores

194 Puntos

10 Posts Acerca de Ignacio Castroli Es un hombreVive en ArgentinaSe unió a Taringa! hace más de 6 años

Post Relacionados

Ciencia y Educación

Nanotecnología

Info

10 avances informáticos de Internet que cambiaron al mundo

Noticias

la tecnologia cambian el mundo nuevas Tabletas baratas

Reviews

Los máximos avances tecnológicos ¿donde están realmente? Avisos Taringa!

Corte adelanto de Maldigohttp://www.taringa.net/musica/Maldigo señala una quebradura interna que tiene toda lengua porque

Avances en electrónica elástica Nuevo material para dispositivos electrónicos elásticos

inspirado en la naturaleza

Imitando la forma en la que los tendones se conectan a loshuesos, unos científicos de Suiza han desarrollado un materialque podría acelerar el desarrollo de dispositivos electrónicos

portátiles, elásticos.

La industria de la electrónica elástica está en su infancia,pero unos dispositivos capaces de flexionarse sin rompersepodrían revolucionar diversos mercados desde los teléfonos

inteligentes a las células solares o los implantes médicos. Hacemucho tiempo que los futuristas predijeron la ropa con sensores

que monitorean los signos vitales del usuario, o teléfonosinteligentes y pantallas tejidos en la tela de las camisas o

chaquetas.

Sin embargo, mientras que los circuitos y el cableado están bienen superficies rígidas como las de un Tablet PC, se rompen

fácilmente cuando se combinan con materiales elásticos. AndreStudart, un investigador del Instituto Federal Suizo de

Tecnología en Zurich y su equipo han superado el problema con unmaterial elástico de poliuretano que contiene "islas" losuficientemente rígidas como para alojar y proteger los

circuitos delicados.

Mientras que la parte blanda se puede estirar un 350%, lasregiones rígidas creadas por impregnación del material con

pequeñas plaquetas de óxido de aluminio y una arcilla sintéticallamada laponita, apenas se deforman y pueden proteger los

elementos electrónicos.

El material, presentado en la investigación que se publicó en larevista Nature Communications, está hecho de capas enlazadas y

puesto que la concentración de las plaquetas aumentagradualmente, la unión entre las partes elásticas y las rígidas

también es duradera.

Avances tecnológicos de la electrónica aplicados a la Domótica y la Inmótica 

Carlos Fernando Zapata Aramayo*

“Esta interesante y novedosa rama de la electrónica permite la automatización completa de una vivienda con dispositivos, equipos y sistemas de control y comunicación…”

ResumenAnte el avance de la tecnología en el campo de la electrónica, se propone a continuación una breve actualización respecto a  la importancia de la Domótica y la Inmótica, como sistemas que facilitan la convivencia y seguridad del ser humano en sociedad, tanto en su entorno familiar como laboral.Se sustenta el criterio de que la electrónica, aplicada a la par de otras ciencias y especialidades tecnológicas, es un instrumento capaz de formar un entorno tecnológico de avanzada en términos de costos/beneficios a corto, mediano y largo plazo, en un mundo en el que la comodidad, la tranquilidad y la seguridad han dejado de ser un lujo o parte de la ciencia ficción.El objetivo final es concienciar al estamento universitariopara asumir el reto de formar para el desarrollo de la tecnología propietaria y su aplicación práctica, de manera que sea posible cubrir las necesidades particulares de un país como el nuestro que se debate entre el desarrollo y lapobreza.

 

Las últimas tres décadas del pasado siglo marcaron el firmeestablecimiento, desarrollo y perfeccionamiento de la electrónica, a tal grado que en la actualidad su aplicaciónes parte de la vida del ser humano. De hecho, deben ser pocas las personas en el mundo que no estén en contacto conalgún dispositivo que contenga o se derive de la electrónica, del silicio purificado.  

 

____________________________________________________________________________________

*Presidente de la Academia de Electrónica; docente de Electrónica y Computación, Facultad de Ingenierías, UNIVA.

 

Los seres humanos somos hoy en día completamente dependientes del avance tecnológico llamado electrónica, en sus muy diversaspresentaciones yaplicaciones;prueba de ello sonla radio, latelevisión, laInternet, eltransporte, laindustria, o algotan sencillo comoun reloj depulsera. Además, superfeccionamiento nos ha permitido ingresar con mayor eficiencia y una aceptable relación costo/beneficio, en loscampos de la seguridad, la miniaturización, la inmunidad y la ecología, relacionados con la industria electrónica.

Este avance nos ha puesto, por un lado, en situaciones de peligro, si tomamos como referencia el  desarrollo armamentista en países del primer mundo, pero también en situaciones de bienestar que se evidencian, por ejemplo en

el campo de la medicina, mediante el uso de equipos de diagnóstico portátiles y auto operables para la detección precoz de enfermedades, hasta equipos que satisfacen los requerimientos para las más complejas cirugías. Podemos también afirmar que la electrónica es parte del avance de la ciencia, dado que gracias a ella se ha logrado, por ejemplo, la definición de la cadena del ADN y de los cromosomas humanos, empujando el desarrollo de la investigación genética hasta niveles a veces discutibles.

En las comunicaciones, ni qué decir, estamos inmersos en unmundo de señales de radiofrecuencia de todos los tipos y niveles que nos permite comunicarnos desde y hasta cualquier punto de la Tierra, y en ciertos casos fuera de ella, de manera que el aislamiento comunicacional es rémoradel pasado, pese a que  lamentablemente en algunas partes del mundo todavía existe el aislamiento social. Es prácticacomún el que a través de equipos, cada vez más pequeños, los individuos estemos en contacto en cualquier momento gracias a la telefonía celular, pero sobre todo gracias a Internet, que definitivamente es un parteaguas en varios sentidos, dado que tanto en las sociedades más avanzadas como en las más remotas se ha facilitado, con costos razonables, el ingreso al mundo tecnológico, para agilizar elacceso a la ciencia e investigación y la prestación de servicios para la satisfacción de las necesidades.

Un campo relativamente nuevo, que se ha perfeccionado en este siglo, es el la Domótica, que no es otra cosa que la aplicación de la electrónica en y con todassus ramificaciones para el bienestar humano, para mejorar la calidad de vida yla comodidad individual y colectiva. Así entonces, cuando hablamos de Domótica, en pocas palabras, nos referimos a la electrónica para la comodidad,tranquilidad y seguridad del individuo. 

Desarrollo de la tecnología electrónicaLa Domótica es una división de la electrónica en la que se aplican las tecnologías existentes de la información y comunicación para la mayor comodidad y conveniencia en una casa habitación. Esta interesante y novedosa rama de la electrónica permite la automatización completa de una vivienda con dispositivos, equipos y sistemas de control y

comunicación, distribuidos y controlados domésticamente desde adentro o desde afuera. Etimológicamente deriva del francés domotique, que se sirve del latín domus, que significa hogar, casa, y de informatique, informática o ciencia de la información, es decir la ciencia destinada a la recolección, almacenaje, transmisión, procesamiento y despliegue de información, aplicada en el hogar. Cuando se integran sistemas de control automatizados de procesamientode datos y toma de decisiones, se crea o se incurre en la Inmótica, del inglés inmotics, INtelligent doMOTICS.

Como un sistema seguro y comprobado se estableció, desarrolló y comercializó formalmente a finales del 2001, en Bruselas, Bélgica, a iniciativa del Belgian Center for Domotics and Inmotics (BCDI), que reunió asociaciones, instituciones y organismos afines, con el objeto de ayudar a estandarizar el sistema en Europa y el mundo entero. Sus estándares se aplican mayor y más abiertamente en los países integradores de estos sistemas, entre ellos México, porque establecen las normas y protocolos para la integración de sistemas y marcas, principalmente europeas, facilitando la comercialización especializada. Sin embargo,existen en el mundo tres grandes ramas de la Domótica: la asiática, la estadounidense y la europea.

La rama asiática, liderada por el Japón, controla el mercado oriental con equipos especializados bajo sus formatos y tecnología propia, desarrollada a partir de conceptos, equipos y sistemas comercializables sólo en ese país, a veces por cuestiones socioculturales, y otras por simple protección de tecnología especializada. La rama estadounidense, que abarca el norte de América, básicamenteEstados Unidos y Canadá, que si bien tiene tecnología propia, sus estándares son diferentes y muy incipientes comparados con los japoneses, y cabe hacer notar que no siempre funcionan bien en México, país que por excelencia comercializa e instala la tecnología proveniente de esta parte del continente, y por último, la rama considerada como la más importante: la europea, en la que se registra la  mayor cantidad-calidad de desarrollo tecnológico, la mayor cantidad de infraestructura instalada a nivel continental y la mayor cantidad de empresas dedicadas al rubro.

El fundamento básico de la Domótica es que la multiplicidadde las aplicaciones tecnológicas que han entrado en nuestros hogares sea efectivamente para mejorar nuestras vidas y no para crear conflictos, preocupaciones y estrés por su variedad y complejidad. De hecho, sirve para ayudar en aquellas tareas que no siempre podemos cumplir a cabalidad, al comenzar el día o antes de ir a la cama, cuando salimos de la casa o llegamos a ella; tareas que normalmente quedan pendientes, como la revisión de termostatos, luces, puertas, alarmas, electrodomésticos conectados, fugas de agua, gas, riego del jardín, etcétera.La Domótica sirve para resolver todos los posibles problemas, incluso en ciertas condiciones, antes de que se produzcan, facilitándonos la vida cotidiana, procurándola descansada, relajada y sin preocupaciones mayores ni menores.

Así entonces, la Domótica, entendida como el control residencial integrado, concepto que en décadas pasadas era considerado imposible o sólo podíamos conocerlo a través depelículas de ciencia ficción, es ahora posible gracias a los avances tecnológicos de aplicación en la construcción yautomatización residencial, sustentada en tres sencillos objetivos: proporcionar el mayor confort, alta convenienciay tranquilidad mental para un verdadero descanso en casa. Tiene que ver con cualquier aplicación, en cualquier ambiente doméstico, en que la electricidad y la electrónicaestán involucradas, tal como la calefacción y ventilación, la protección y seguridad, la conservación y preparación dealimentos, el control de consumo de energía, el cuidado de ropa y menaje, comunicaciones, entretenimiento y mantenimiento físico. En los últimos tiempos, tiene influencia en los campos sociales para el cuidado de la salud, cuidado de ancianos, supervisión de niños y personasinválidas, además se ha involucrado en aspectos como tele banca, tele compras, tele comunicaciones y supervisión remota.

En este marco, la Domótica tiene más peso que cualquier otra área de desarrollo, puesto que pese a que involucra muchas disciplinas y requiere acciones conjuntas para hacerla posible, facilita enormemente la vida del individuopromedio de nuestra sociedad. Por ello, y dado que su

enfoque se centra en las personas y su medio ambiente, los fabricantes han desarrollado materiales y sistemas capaces de cubrir las demandas de los constructores y renovadores de casas residenciales, solucionando una infinidad de problemas con sistemas no compatibles, con necesidades de recursos diferentes y difíciles de operar; se ha logrado estandarizar el concepto de la electrónica aplicada al hogar, desde el cableado estructurado -requerido para estossistemas-, hasta los programas comerciales de control, pasando por el desarrollo ordenado de interfaces y dispositivos electrónicos de alto rendimiento y fáciles de instalar por personal calificado. Desde la década de los noventa han quedado atrás los tiempos en que el control climático, la seguridad, la telefonía, la automatización y la informática representaban más problemas que soluciones, debido a su complejidad, dificultad de instalación y falta de homologación de sistemas.

Dispositivos de controlEl fundamento de operación de un sistema domótico está basado en un centro de mando principal, un módulo de control digital encargado de la ejecución de instrucciones previamente programadas y un conjunto de dispositivos periféricos de ejecución con tareas específicas que pueden ser programadas independientemente del módulo de mando central, aunque en constante comunicación y retroalimentación de datos. El tamaño y capacidad del centro de control o módulo principal es directamente proporcional a la capacidad y los recursos instalados en laresidencia, aspectos que sólo el dueño o usuario final va atener como última palabra, es decir, que el usuario es quien decide qué dispositivos van a instalarse, qué funciones va a controlar o automatizar, qué tareas y agendatendrá cada dispositivo, qué instrucciones se ejecutarán y en qué momento. Son sistemas completamente abiertos a programación e instalación, sus limitaciones están en la imaginación del diseñador y, por supuesto, no hay barreras a futuro.

Cuando los periféricos están diseñados, instalados y conectados por el especialista en Domótica, el usuario o

propietario del inmueble podrá definir los controles e instrucciones a ejecutar, tales como:

Control de iluminación, fijo o atenuable, por habitaciones y ambientes, regulado por presencia de individuos y horarios, para control y ahorro considerable de energía en un hogar, beneficiando a los habitantes, a laecología y a la sociedad en su conjunto.

Control de seguridad mediante alarmas, detectores de presencia, control de accesos o circuitos cerrados de televisión por telecomunicación mediante video portero, de manera que en caso de no haber habitantes en casa comunique directamente al celular con pantalla la voz y el video del visitante.

Control del encendido o apagado programado o aleatorio de equipos de sonido audio/video como música ambiental, fiestas, recreación o como seguridad en ausencia de habitantes de la casa en vacaciones.

Control de la temperatura interior mediante aire acondicionado, o bien calefactores, dependiendo del área geográfica y número de habitantes.

Detectar falta de provisión de servicios como agua, luz, gas, televisióno cualquier otro, y comunicar inmediatamente a los habitantes, física o remotamente, así como riesgos de seguridad por invasión, fugas o incendios.

Abrir o cerrar las cortinas o persianas para calentar ambientes o buscarprivacidad y/o seguridad.

Apagar la lavadora cuando el nivel de agua del tinaco está abajo del rango crítico.

Controlar el encendido de la televisión de los niños en horario restringido.

Mantener cerradas las puertas de la cochera y accesos. Prevenir accidentes fortuitos o premeditados, tomando acciones

pertinentes, previamente estipuladas y programadas. Monitoreo remoto y a distancia de los niños, sus empleados, niñeras o

enfermeras para un correcto cuidado en el trato. Mantener un cuidado de la familia y control de la servidumbre, vía

remota en imágenes en tiempo real mediante Internet. Cuidado y supervisión remota de niños, ancianos y personas minusválidas. Infinidad de otras aplicaciones, limitadas única y exclusivamente por la

intuición e imaginación del especialista y los habitantes.

 

La operación del sistema permite que con sólo presionar un botón en el control maestro, una instrucción sea ejecutada,interrumpida o igualmente modificada de acuerdo con necesidades momentáneas, y debidamente desplegada en una pantalla la acción, así como el resultado de la instrucción. Para el efecto se utilizan pantallas sensiblesal tacto y/o teclados fácilmente operables por cualquier miembro de la familia que tenga acceso a los mismos. Se puede también programar eventos calendarizados de corto o largo plazo, mediante la ejecución de programas amigables

en ambiente Windows, a través de cualquier PC, previa configuración del sistema en particular.

En el terreno de la alta tecnología, a corto plazo, incluyéndose nuestro entorno, los servicios de la Domótica incluirán tareas como:

Hacer automáticamente, a través de la red, las compras de comestibles enel mercado, de acuerdo con la información del refrigerador.

Llamar al médico de la familia, o al servicio de emergencia, en caso de un accidente en casa o cuidado de personas mayores a través de equipos médicos especializados.

Recibir mercancías a terceros en un área restringida por control de acceso y video, en ausencia de los habitantes y con comunicación directavía telefónica con el dueño.

            Cabe además destacar que la Domótica es una tecnología revolucionaria que ha cambiado el modo de vida, proporcionando múltiples beneficios para el ahorro de energía global, la seguridad, el acondicionamiento habitacional y la convivencia. Esta tecnología aplicada a gran escala representa la Inmótica, que podemos encontrar en los famosos edificios inteligentes, en los que las variables de control son más sofisticadas y en mayor cantidad, puesto que cubren por ejemplo el control de airesacondicionados, elevadores, seguridad, cctv, alarmas anti robo, control de consumos energéticos; implementación válida para edificios gubernamentales, hoteles, corporativos, hospitales y otros.

Un paso más en el desarrollo de la Domótica es la Inmótica,definida como la toma de decisiones razonadas por programas y sistemas electrónicos capaces de detectar condiciones de riesgo o bien de ahorro de energía. Esta tecnología tiene la capacidad de interpretar, analizar  y estudiar comportamientos específicos de los habitantes en residencias o edificios para tomar decisiones con base en ellos; así, la Inmótica es Domótica con inteligencia

La Inmótica es un recurso tecnológico que normalmente se instala en edificaciones de gran magnitud, por dos razones básicas: la cantidad de dispositivos de control y supervisión requeridos y el costo de instalación y equipamiento. Sin embargo, no limita su uso a una

residencia en la que el sistema estudia automáticamente el comportamiento de sus habitantes en periodos de tiempo variables, de manera que cuando detecta actividades repetitivas, toma automáticamente previsiones para la facilitación de ciertas tareas antes de su solicitud.

Su aplicación en ambientes domiciliares es todavía restringida, porque existe el temor de que una casa inteligenteimplica un riesgo de seguridad, hay quienes piensan quién sabe que le vaya a pasar en su casa cuando esté a solas . Sin embargo, esta posibilidad es mera fantasía, puesto que una casa inteligente no agredirá en lo más mínimo ni atentará contrala seguridad, eso sólo sucede en las películas de suspenso de Hollywood, puesto que la inteligencia es meramente terminología técnica para emular la automatización en el más amplio sentido de la palabra automático.

Equipos periféricosLa tecnología de la Domótica está basada en varios dispositivos de uso cotidiano en la industria de la automatización, tales como los conocidos PLC´S, temporizadores o timers, relevadores, sensores de todo tipo,equipos de automatización industrial y los novedosos sistemas PAC´s (Programable Automation Controler), similares a los PLC, pero que funcionan en ambientes de red en amplios protocolos, aplicados todos a la específica conveniencia decada diseño, con herramientas de diagnóstico y pruebas, asícomo herramientas lógicas para el diseño y la planificaciónprevia de cada aplicación y costo, desarrollados especialmente para automatización. Es también parte de la tecnología el uso de microcontroladores especializados, la informática a través de PC´s y sistemas amigables con posibilidad de diseño propio, así como sistemas de cableadoestructurado e interfaces de salida a sistemas de conmutadores telefónicos comerciales o celulares actuales con servicios de Internet y video en línea.

Llegando un poco más lejos, podemos encontrar sistemas sofisticados conectables a equipos médicos portátiles, sistemas de seguridad que pueden enviar mensajes a bomberos, fugas, policía y otros. La mayor y gran ventaja esque al no existir limitaciones, se pueden desarrollar las interfaces para cualquier aplicación particular que se desee, dado que se cuenta con la

información técnica requerida y lo demás queda en manos y capacidad del integrador de sistemas.   

ConclusionesDado el desarrollo y disponibilidad de la nueva tecnología de la electrónica, es menester apoyar su perfeccionamiento,considerándose como aspecto fundamental que cubre el entorno de la comodidad y seguridad de los individuos en sociedad, un área hasta hace poco descuidada. Para este perfeccionamiento resulta pertinente plantear la posibilidad del desarrollo de tecnología propietaria para nuestro entorno, a través de la investigación y aplicación por el alumnado de nuestra universidad, y en general del país, en carreras relacionadas, tales como electrónica, informática, computación, mecatrónica e industrial. Ya que nuestro país cuenta con sistemas y tecnologías descontinuadas en otras partes del mundo, pero que cubren necesidades en nuestro país, se requiere del desarrollo de sistemas específicos para aplicaciones residenciales que vayan orientadas principalmente al ahorro de energía.

Esta ciencia y su aplicación, tanto en residencias particulares como en edificios de uso público y privado, notendrían que estar limitados por el acceso a la tecnología y mucho menos por factores económicos, si se toma en cuentaque sus objetivos son proporcionar mayor confort, mejor conveniencia y tranquilidad mental. Tendría además que considerarse que se trata de una tecnología que por sí misma implica un importante ahorro de costos en el rubro dela seguridad física de los individuos,  mantenimiento de equipos y enseres electrodomésticos, pero sobre todo en el consumo de energía, en un mundo superpoblado que prácticamente lucha por su sobrevivencia.

Cabe también dejar en claro que no se trata de una tecnología destinada exclusivamente a países desarrollados o a estratos socioeconómicos de élite, sino más bien de una tecnología que como parte del fenómeno de la globalización tiende a convertirse en parte de los servicios básicos, como el alcantarillado, la electricidad, el agua potable y parte de los servicios que el Estado debe prestar a sus

ciudadanos, sin invadir el derecho a la privacidad, en términos de seguridad y convivencia social.

Por ello es tan importante que el alumnado de las carreras de ingeniería y afines tome conciencia del amplio terreno de desarrollo que se presenta en esta época, y aprovechar las circunstancias y momento para trabajar por el establecimiento adecuado de la Domótica a nuestro entorno, abaratando costos, y renovando nuestros recursos sin necesidad de grandes inversiones y grandes movimientos estructurales, para la implementación de esta tecnología. Hay que fomentar el ingenio de nuestros ingenieros en el desarrollo de tecnología propietaria y de punta de lanza para nuestra sociedad, y ¿por qué no?, para el mundo.

Bibliografía BCDI. (2004). Belgian  Centre for Domotics and Inmotics. Disponible en www.bcdi.be.

Romero, C.; Vázquez, F. y De Castro, C. (2005). Domótica e Inmótica, Viviendas y edificios inteligentes. México, Distrito Federal: Alfaomega Ra-Ma.Zapata, C. (2004).  Investigación personal de las nuevas tecnologías del presente inicio de milenio. Guadalajara: Inédito.

MICROELECTRÓNICA EN EL AVANCE DE LA TECNOLOGÍA Y SUS   APLICACIONES. Los avances de la tecnología nos traen cada vez mas novedades y también sorpresas. Adaptarse a ese cambio es nuestra vida diaria. 

Debido al avance de la tecnología nosotros nos vemosinvolucrados en un mundo de cambio constante, uno de los masgrandes avances es la evolución es la microelectrónica.

El concepto mejor definido podemos conceptualizar al alamicroelectrónica de la siguiente manera. La microelectrónica esla aplicación de la ciencia electrónica a componentes ycircuitos de dimensiones muy pequeñas, microscópicas y hasta denivel molecular para producir dispositivos y equiposelectrónicos de dimensiones reducidas pero altamentefuncionales. El teléfono celular, el microprocesador de la CPU yla computadora tipo Palm son claros ejemplos de los alcancesactuales de la Tecnología Microelectrónica., también lamicroelectrónica llevo al desarrollo del circuitos integrados.El mayor potencial de esta tecnología se encontró en lascomunicaciones, particularmente en satélites, cámaras detelevisión y en la telefonía, aunque mas tarde lamicroelectrónica se desarrollo con mayor rapidez en otros

productos independientes como calculadoras de bolsillo y relojesdigitales.

Nosotros como estudiantes de ingeniería electrónica podemosutilizar múltiples softwares  para realizar distintos trabajosque involucran la microelectrónica entre ellos podemosconsiderar un pequeño resumen de cada uno de ellos.

DaqGen v1.40 es un excelente generador de señales en PC tambiénDesignWorks Professional 4.2 for Windows un excelente diseñadorde circuitos análogos y digitales PSPICE 9.1 que es uno de losmejores simuladores electrónicos.

MPLAB Este es uno de los programas utilizados para trabajar conPIC. Quizás es uno de los mejores por su gran facilidad demanejo y porque es compatible con la mayoría demicrocontroladores que existen. Además de esto soporta un grannúmero de interfaces. Es excelente.

P-CAD 2004  , CADint 3.70.1 ,  ExpressPCB  y  PCB123 Estos son alguno de los excelentes programas  para el diseño dePCB. También tenemos otros programas para distintos usos yaplicaciones en la microelectrónica también tenemos otrosoftware como Crocodile que es una versión para losprincipiantes de uno de los diseñadores de electrónica máspopulares. Ahora en 3D.

BIP Electronics Lab Oscilloscope 3.0 es un analizador de señalespor PC, Electronic Circuit Designer es un programa para eldesarrollo de circuitos electrónicos también Spectrogram version5.0 analizador de espectros en  PC.

De acuerno a nuestras necesidades que tenemos utilizamos losdistintos programas para la simulación  o proceso de grabadoentre otras utilidades por ejemplo en el área de la ingenieríapara programar PICs, podemos utilizar asembler o c++, MPLAB esun buen programa para hacer la programación de pics enun lenguaje asembler Y CCS bueno hacer el programa para picspero basado en lenguaje C, ahora como programa para grabar losPICS tenemos el ICPROG y el WINPIC (se puede programar porpuerto serial y por puerto USB).

En el área de control el más utilizado es el MATLABconjuntamente con el SIMULINKy de acuerdo con el avance de misestudios les  recomiendo usar los siguientes programas porque nome han traídos muchas dificultades como por ejemplo PROTEUS,MULTISIM, MATLAB, SIMULINK, WORBENCH, EAGLE y entre otros.

En resumen diré que muchos de los softwares son muy buenos ensus respectivas aplicaciones que se les da, también  hay queaprender a usar toda las herramientas que nos ofrece latecnología junto a la microelectrónica.

Gran avance en la electrónica elástica

Para las personas con enfermedades del corazón y otras dolencias querequieren supervisión frecuente, la vida cotidiana puede verse bastantealterada por culpa de las constantes visitas al hospital y el engorro desometerse a los análisis.

La situación sería muy distinta si gran parte de las pruebas que se hacenen los hospitales pudieran realizarse en casa del paciente o en cualquierotro lugar.

Bastantes científicos especializados en tecnología médica vislumbran yauna época en que los dispositivos de monitorización médica se integren sinproblemas dentro del cuerpo humano, sean capaces de hacer un seguimientocontinuado de los signos vitales del paciente y transmitan los datos a losmédicos. Sin embargo, un gran obstáculo continúa impidiendo lamaterialización de tecnologías como éstas: los dispositivos electrónicosson demasiado rígidos.

Un equipo de investigadores de la Escuela McCormick de Ingeniería yCiencias Aplicadas de la Universidad del Noroeste, en Evanston, Illinois,Estados Unidos, junto con científicos de otras instituciones dentro yfuera de esa nación, recientemente han desarrollado un diseño que permitea la electrónica doblarse y estirarse hasta cuatro veces más de lo que esposible con la tecnología actual. La clave es una combinación de unpolímero poroso y un metal líquido.

Yonggang Huang. (Foto: U. McCormick)

Con la tecnología actual, la electrónica es capaz de poseer una ciertaelasticidad, pero muchas aplicaciones potenciales exigen al dispositivoestirarse como una cinta elástica de las usadas para sujetar cosas.

Un desafío para lograr esa elasticidad es lograr que no se pierda laconductividad. Los circuitos hechos de metales sólidos que estánactualmente en el mercado pueden sobrevivir a una cantidad pequeña deestiramiento pero su conductividad eléctrica desciende muy por debajo delo tolerable cuando experimentan ese estiramiento.

El equipo de Yonggang Huang y Shuodao Wang, de la Universidad delNoroeste, y sus colegas en el Instituto Avanzado de Ciencia y Tecnología(KAIST), en Daejeon, Corea del Sur, la Universidad Tecnológica de Dalianen China, y la Universidad de Illinois en Urbana-Champaign, EstadosUnidos, ha encontrado una manera de superar este desafío.

Primero, estos científicos crearon una estructura tridimensional muyporosa usando un material polimérico que puede estirarse hasta tres vecessu tamaño original. Entonces pusieron una sustancia metálica líquidadentro de los poros, lo cual permite que la electricidad fluya de manerapermanente, incluso cuando el material es estirado al máximo.

El resultado es un material muy estirable y además buen conductoreléctrico

Investigadores españoles sintetizan por primera vez nanoanillos de plata

Investigadores del ITMA Materials Technology, con sede en Avilés (España),han patentado los nanoanillos de plata. La nueva estructura nanométricapodría mejorar la transparencia y conductividad de las pantallas táctiles,tanto rígidas como flexibles, y aumentar el rendimiento de las célulassolares, entre otras aplicaciones.

Hace escasos meses, cuando los científicos de la sede avilesina del ITMAMaterials Technology creaban nanohilos de plata, encontraron algo fuera delo habitual: “Estaba observando al microscopio electrónico una muestra delos últimos nanohilos que habíamos fabricado cuando vi allí en medio unanillo”, relata Luis J. Andrés, investigador del Área de Energía.

Corrobora la sorpresa del momento Mª Fe Menéndez, investigadora del mismocentro: “Acto seguido, nos pusimos a buscar exhaustivamente en lasuperficie de toda la muestra, y encontramos más nanoanillos”, afirma.

Tras revisar todas las fabricaciones anteriores, los investigadoreshallaron que cuando habían sintetizado nanohilos con longitudes y grosoresdeterminados, también aparecían nanoanillos que en un primer momentohabían pasado desapercibidos.

Un hallazgo que les llevó a concluir que, bajo determinadas condiciones,los hilos suficientemente largos y finos pueden doblarse hasta que sus dosextremos se encuentren y se cierre el círculo. Los nanoanillos fabricadostienen un diámetro de entre 14 y 60 micras, aunque “hay un valor óptimo

que permite obtener la mayor conductividad y transparencia”, admiten losinvestigadores.

Ahora, y tras haber registrado la patente tanto de la nueva estructurananométrica como del método para obtenerla, los investigadores se hanvolcado en sistematizar la síntesis de estos nuevos nanomateriales.

Como señala Luis J. Andrés, “para nosotros es esencial controlar laproducción a escala industrial de  los nanoanillos, de tal forma quepodamos ofrecer al mercado una fabricación estable y en cantidadesadecuadas, que puedan utilizarse para manufacturar bienes de consumo”.

Un planteamiento que les ha llevado a escalar la producción de formadestacable: “Estamos alcanzando de forma sistemática y estable volúmenesde reacción en torno al medio litro, que son billones de billones denanohilos, mientras que en los procesos de fabricación habituales denanoestructuras metálicas los volúmenes de reacción son del orden de 50ml”, afirma el investigador.

Nanoanillo de plata observado al microscopio electrónico de barrido. (Foto: ITMA)

Actualmente, el material más utilizado para fabricar materialesconductores y transparentes es el óxido de estaño e indio, conocido comoITO por sus siglas en inglés. Pero, según David Gómez, “no sólo es uninconveniente el hecho de que el indio sea escaso, sino que además, elproceso de fabricación del ITO es costoso y no se puede utilizar paradispositivos que sean flexibles”.

Por estas razones, los investigadores del ITMA buscan alternativas paradesarrollar materiales conductores y transparentes, principalmente apartir de nanoestructuras de plata; una solución “con muy buena relaciónentre precio y conductividad”, defiende Luis J. Andrés.

Para explicar el principio de funcionamiento de los nanohilos de plata, elinvestigador recurre a la imagen del popular juego de mesa que comienzadejando caer numerosos palitos, que simulan los nanohilos, al azar sobreuna superficie: “Cada uno de los puntos en que cada palito toca a otro esun contacto eléctrico”.

Por eso, continúa el investigador, cuanto más largos son los filamentos,más posibilidades hay de que utilizando una cantidad menor de hilos setoquen y creen una red entre ellos que conduzca la corriente eléctrica.

“Al fabricar nanohilos más largos podemos emplear una menor cantidad, conlo que obtenemos una mayor transparencia, reforzada también por lareducción de grosor que hemos conseguido”, concluyen Luis J. Andrés y MªFe Menéndez.

Los nanohilos fabricados en el ITMA tienen hasta 150 micras de largo, sibien la longitud media se sitúa en torno a las 100 micras, y el grosor esde entre  40 y 250 nanómetros. En definitiva, indica David Gómez, directordel Área de Energía del centro tecnológico, “hemos conseguido una relaciónentre longitud y grosor de uno a mil,  el mismo aspecto que tendría unavarilla de 1 milímetro de diámetro y 1 metro de longitud; mientras que lasrelaciones habituales en el mercado son del orden de 1 a 500”.

Tal y como indican los investigadores del ITMA, “al ser estructurascerradas, los nanoanillos tienen una ventaja frente a los nanohilos, y esque la superficie que encierra cada círculo tiene su conductividadeléctrica asegurada, y puesto que nada obstruye el paso de luz, permiten

alcanzar una mayor transparencia que en los materiales tratados connanohilos”.

Ambos tipos de nanoestructuras podrían aplicarse a la fabricación depantallas de teléfonos y dispositivos móviles con mayor nivel detransparencia y menor consumo de batería, incluso en dispositivosflexibles. También permitirían mejorar el rendimiento de las actualescélulas fotovoltaicas: “Aplicamos los nanohilos en una suspensión, igualque si fuera una pintura, por lo que no sería necesario alterar lascélulas solares”, afirma Luis J. Andrés.

Otra posible aplicación de los nanohilos de plata son los espejos de altareflectividad, utilizados en satélites y generación de energía termosolar:“Nuestros últimos ensayos nos están dando resultados del  96,5% dereflectividad, frente a recubrimientos basados en nanopartículas de plata,desarrollados por el ITMA en los últimos años, donde sólo se alcanzanvalores del 95%, destacan los investigadores.

Mientras continúan escalando el proceso de fabricación, los investigadoresdel ITMA explican que están estudiando posibles técnicas para mejorar laconductividad obtenida, que se encuentra dentro de los valores que alcanzael ITO. Según Luis J. Andrés, “al soldar los anillos entre sí, conseguimosreducir la resistencia y aumentar la conductividad entre un 30 y un 45%.Otra línea de investigación que ya tenemos en marcha es utilizar lasinergia comprobada entre los nanohilos de plata y el grafeno”. (Fuente:FICYT)

Un termómetro a nanoescalaUn equipo internacional formado por investigadores del Consejo Superior deInvestigaciones Científicas (CSIC) (españa) y del Instituto Italiano de Tecnología ha desarrollado un método para medir y controlar la temperaturaen el entorno de nanopartículas magnéticas. El sistema descrito en el estudio, publicado en la revista Nano Letters, podría emplearse para liberar fármacos de manera controlada dentro del organismo.

“Las partículas magnéticas tienen la propiedad de que al ser sometidas a un campo magnético alterno se calientan y disipan calor en su entorno. Sinembargo, un aspecto no resuelto hasta ahora era determinar la distribución

de la temperatura en el entorno de la partícula cuando esta se calienta. Para superar ese problema hemos desarrollado un nuevo método que consiste en emplear una molécula termosensible que se degrada en función de la temperatura”, explica el investigador el CSIC Miguel Ángel García, del Instituto de Cerámica y Vidrio.

Este método alcanza una resolución inferior al nanómetro, la mayor obtenida hasta la fecha en este tipo de medidas.

La molécula termosensible se coloca a una distancia fija de la nanopartícula, con un polímero como espaciador, y se enlaza a una moléculafluorescente. Midiendo ópticamente la cantidad de moléculas fluorescentes que se separan de las nanopartículas al aplicar el campo magnético, se puede determinar la temperatura que ha alcanzado la molécula termosensibley su distribución. Según el estudio, este método alcanza una resolución inferior al nanómetro, la mayor obtenida hasta la fecha en este tipo de medidas.

“Los resultados han permitido comprobar que a escalas tan pequeñas las propiedades térmicas de los materiales se ven afectadas, y el trasporte decalor sigue unas leyes distintas a la que son válidas para materiales de tamaño macroscópico”, añade el investigador del CSIC.

Este trabajo se engloba dentro del proyecto europeo MAGNIFYCO, que estudiael uso de nanopartículas magnéticas para la diagnosis y la terapia de tumores, mediante la liberación de fármacos de forma controlada dentro delorganismo. “Si sustituimos la molécula fluorescente por un medicamento, este se puede liberar de forma controlada para que sea lo más efectivo posible y así reducir los efectos secundarios”, concluye García. (Fuente: CSIC)

Los nanotubos de carbono podrían hacer resonancias magnéticas a moléculasLos nanotubos de carbono son uno de los materiales más fuertes y más durosconocidos, con una resistencia mucho mayor que el acero. Sus propiedadeseléctricas y térmicas son excepcionales y sus usos potenciales van desde

raquetas de tenis y chalecos antibala, hasta componentes electrónicos ydispositivos de almacenamiento de energía.

Ahora, un equipo internacional ha demostrado que también podrían llegar arevolucionar el diagnóstico médico por imagen, con resonancias magnéticasa moléculas individuales.

Científicos del Instituto de Ciencias Fotónicas, ICFO, en colaboración coninvestigadores del Instituto Catalán de Nanotecnología (ICN2) y de laUniversidad de Michigan, han conseguido medir fuerzas muy débiles con unasensibilidad 50 veces superior a lo conseguido hasta el momento. Estamejora supone un punto de inflexión en la medición de fuerzas muy débilesy abre la puerta a realizar resonancias magnéticas a escala molecular.

En un artículo publicado en Nature Nanotechnology,  el grupo liderado porel doctor Adrian Bachtold, actualmente en ICFO pero que inició estainvestigación cuando pertenecía a ICN2, explica cómo ha conseguidopreparar los nanotubos de carbono para que actúen como sondas que vibrancon una intensidad proporcional a la fuerza electroestática de lasmoléculas.

Usando electrónica muy precisa, el equipo de Bachtold ha podido medir laamplitud de la vibración de estos nanotubos y conocer la intensidad de lafuerza electroestática.

“Los nanotubos de carbono son parecidos a cuerdas de guitarra que alaplicarles una fuerza vibran; sin embargo, en este caso las fuerzas quelos hacen vibrar son extremadamente pequeñas”, explica Bachtold.

En los últimos diez años, los científicos solo habían podido conseguirmejoras muy sutiles en la sensibilidad de la medición de fuerzas débiles.Pero este descubrimiento marca un antes y un después y señala a lasnanotubos de carbono como una gran tecnología para en el futuro realizarresonancias magnéticas a moléculas individuales.

Nanotubo y esquema de uno de los dispositivos diseñados en el estudio. (Foto: ICFO et al.)

La resonancia magnética convencional registra el spin de los núcleos atómicos del conjunto de nuestro cuerpo que han sido previamente excitadospor un campo electromagnético externo. Según la respuesta del conjunto de todos estos átomos, se puede monitorizar y diagnosticar la evolución de ciertas enfermedades.

Sin embargo, esta técnica de diagnóstico convencional tiene una resoluciónde unos pocos milímetros. Los objetos más pequeños no tienen suficientes átomos como para poder observar la señal de respuesta.

“Los resultados presentados nos permiten medir la fuerza creada por cada átomo individual y en consecuencia saber su spin. En el futuro esta técnica podría revolucionar la forma de realizar diagnósticos médicos por imagen” concluye Bachtold.

Establecer estados cuánticosmediante átomos individualesde silicio

Introduciendo "defectos" (átomos particulares de silicio) mediante el usode microscopía de Efecto Túnel (STM), se ha logrado conectar átomosindividuales para formar estados cuánticos.

El logro, fruto del trabajo de científicos en el Centro de Nanotecnologíade Londres, adscrito al University College de Londres, demuestra laviabilidad de diseñar y generar estados cuánticos a escala atómica sobrela superficie del silicio, un paso importante hacia la fabricación depiezas de dispositivos tan pequeñas como átomos individuales.

Los avances en la física atómica ahora permiten reunir iones individualespara que formen estados cuánticos coherentes. Sin embargo, para construirsistemas de átomos conectados en grandes cantidades, como se necesita enaplicaciones tales como la computación cuántica, es muy convenientedesarrollar un buen modo de construir dichos sistemas en el estado sólido.

Los semiconductores, como por ejemplo el silicio, habitualmente presentandefectos atómicos que tienen claras analogías con iones atrapados. Sinembargo, hasta ahora ha resultado difícil introducir tales defectos demanera determinista a fin de observar con todo detalle la conexión entresistemas amplios de defectos individuales.

Ahora, el equipo de Steven Schofield, del citado centro de nanotecnología,ha mostrado que se pueden diseñar y generar estados cuánticos en elsilicio mediante la creación de defectos que interactúen entre sí de lamanera adecuada. En los experimentos, cada defecto individual consistía enun átomo de silicio con un enlace roto, lo cual genera un efectocomparable en algunos aspectos al extremo suelto y oscilante de un cableque cuelga de una estructura. Durante este estudio, estos defectos fueroncreados por pares y en cadenas extendidas, con menos de un nanómetro deseparación entre cada defecto.

Imágenes obtenidas mediante microscopía de Efecto Túnel, en las que se muestran los estados

cuánticos de una estructura atómica artificial en silicio. (Foto: LCN)

El siguiente paso en esta línea de investigación y desarrollo es replicar estos resultados en sistemas con otros materiales, con miras sobre todo a la construcción de computadoras cuánticas

Puntos cuánticos en un bosque de nanocables, ¿la receta para una célula solaróptima?

Usar partículas exóticas llamadas puntos cuánticos como la base de unacélula fotovoltaica no es una idea nueva, pero los dispositivos de este

tipo creados hasta ahora aún no convierten la luz solar en energíaeléctrica con una eficiencia lo bastante alta. Un nuevo enfoque propuestopor un equipo de investigadores, insertar los puntos cuánticos en unbosque de nanocables, promete brindar una mejora significativa.

Los sistemas fotovoltaicos basados en diminutos puntos cuánticoscoloidales tienen varias ventajas potenciales respecto a otros enfoquespara crear células solares: Los puntos cuánticos se pueden fabricarmediante un proceso que funciona a temperatura ambiente, ahorrando energíay evitando complicaciones asociadas al procesamiento a alta temperaturadel silicio y otros materiales tradicionalmente usados en sistemasfotovoltaicos. Los puntos cuánticos se pueden crear a partir de materialesbaratos y abundantes que no requieren una purificación notable, como sí lanecesita el silicio. Y es factible aplicar puntos cuánticos a una ampliagama de materiales baratos e incluso flexibles para substratos, como porejemplo plásticos ligeros.

Sin embargo, al diseñar estos dispositivos, surge un conflicto grave.Existen dos necesidades contradictorias para obtener un sistemafotovoltaico eficaz: Se necesita que la capa absorbente de una célulasolar sea delgada para que permita que las cargas pasen con facilidad delos sitios donde se absorbe la energía solar hasta los cables quetrasmiten la corriente. Pero también se necesita que sea lo bastantegruesa como para absorber la luz de manera eficiente. Mejorar elrendimiento en una de estas áreas tiende a empeorar el de la otra.

Ahí es donde puede ser útil añadir nanocables de óxido de zinc. Estosnanocables tienen la conductividad suficiente para extraer cargas confacilidad, y son lo bastante largos como para brindar la profundidadnecesaria para la absorción de la luz. Así lo ha demostrado el equipo deJoel Jean, Moungi Bawendi, Silvija Gradecak y Vladimir Bulovic, delInstituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos.

Un conjunto de nanocables de óxido de zinc. (Imagen: Cortesía de Jean, et al. / Advanced

Materials)

El resultado es un aumento del 50 por ciento en la corriente generada por la célula solar, y un aumento del 35 por ciento en la eficiencia general. Una ventaja de los sistemas fotovoltaicos basados en puntos cuánticos es que se les puede ajustar para que absorban luz con un rango mucho más amplio de longitudes de onda que el de los dispositivos convencionales.

Ésta es una demostración preliminar de un principio que, mediante un mejorconocimiento de los detalles de funcionamiento del mismo, así como posteriores optimizaciones, puede llevarnos a nuevos tipos prácticos y baratos de dispositivos fotovoltaicos, tal como valora el equipo de Jean.

En el trabajo de investigación y desarrollo también han intervenido SehoonChang, Patrick Brown, Jayce Cheng y Paul Rekemeyer.

Técnica innovadora para fabricación a gran escala demicrosupercondensadores

Aunque la demanda de dispositivos electrónicos cada vez más pequeños haestimulado la miniaturización de diversas tecnologías, un área se haquedado atrás en esta revolución de miniaturización: Las unidades dealmacenamiento de energía, como baterías y condensadores.

Ahora, el equipo de Richard Kaner y Maher El-Kady, del Instituto deNanoSistemas de California, dependiente de la Universidad de California enLos Ángeles (UCLA), podría haber comenzado a cambiar la situación.

Estos investigadores han desarrollado una novedosa técnica que utiliza unagrabadora de DVDs para fabricar supercondensadores micrométricos hechos degrafeno. Los supercondensadores son dispositivos con velocidades de cargay descarga de cientos a miles de veces más rápidas que las de las bateríasconvencionales.

Estos microsupercondensadores, hechos de una capa de carbono grafítico deun átomo de espesor, pueden ser fabricados con facilidad e integrados sinproblemas en dispositivos pequeños cuyo funcionamiento debe ser del todofiable, como por ejemplo marcapasos de la próxima generación.

Los microsupercondensadores de Kaner y El-Kady. (Foto: UCLA)

Los métodos tradicionales para la fabricación de microsupercondensadores requieren técnicas litográficas muy laboriosas que han demostrado ser difíciles para la construcción de dispositivos económicos, lo cual limita su aplicación comercial. En vez de intentar hacer progresos por esa vía, el equipo de Kaner y El-Kady usó una grabadora de DVDs común, de tipo doméstico, una LightScribe concretamente, para producir microsupercondensadores de grafeno en grandes áreas, a una fracción del costo de los dispositivos tradicionales.

Usando esta técnica, los investigadores han conseguido producir más de 100microsupercondensadores en un solo disco en menos de 30 minutos, usando materiales de bajo costo.

El nuevo y económico método de fabricación se muestra prometedor para la producción en masa de estos supercondensadores, los cuales probablemente transformen la electrónica y otros campos.

La impresora de estructuras microscópicas en 3D más veloz del mundo

Nanoscribe GmbH, una compañía fundada para comercializar las creacionesdel Instituto Tecnológico de Karlsruhe, en Alemania, ha presentado laimpresora en 3D de micro y nanoestructuras más rápida del mundo.

Con esta impresora es posible fabricar objetos tridimensionalestremendamente pequeños, a menudo menores que el diámetro de un cabellohumano, con un consumo mínimo de tiempo y una resolución máxima. Laimpresora se basa en un novedoso método de litografía láser.

Por medio del nuevo método de litografía láser, la velocidad de impresiónse incrementa en un factor de casi 100.

Los sistemas de litografía láser 3D desarrollados por Nanoscribe sonusados para trabajos de investigación por el Instituto Tecnológico deKarlsruhe y por científicos de todas partes del mundo, con especialatención dentro del campo de la fotónica.

El tiempo consumido para fabricar por impresión 3D una maqueta miniaturizada de nave espacial

ha quedado reducido a menos de un minuto, y sin pérdida de calidad, gracias al nuevo sistema.

(Foto: Nanoscribe)

Las principales líneas de investigación dentro del área de la fotónica se dirigen a sustituir la electrónica convencional por circuitos ópticos de mayor eficiencia. A tal fin, se utilizan los sistemas de Nanoscribe para imprimir guías poliméricas de ondas que alcanzan tasas de transferencia dedatos de más de 5 terabits por segundo.

Otro de los sectores donde esta tecnología será útil es el de las biociencias, con aplicaciones tales como los andamios destinados a servir de soporte para el crecimiento de células. Otro sector destacado es el de los materiales con estructuras muy trabajadas a escala nanométrica.

Entre los clientes de Nanoscribe hay universidades, otros centros de investigación, y empresas.

Un trabajo abre una nueva vía para manipular bits cuánticos y transferir información con eficienciaUn equipo de investigadores del Consejo Superior de InvestigacionesCientíficas (CSIC), en España, en colaboración con el National ResearchCouncil of Canada, ha medido y analizado por primera vez un fenómenodenominado bloqueo de espín en el transporte electrónico a través de uncircuito de tres puntos cuánticos, o átomos artificiales, acoplados entresí. El trabajo, publicado en la revista Nature Nanotechnology, abre unanueva vía para la manipulación de bits cuánticos, los componentes básicosde los ordenadores del futuro, y para la transferencia eficiente deinformación entre dos regiones distantes.

Los electrones no sólo poseen carga, sino también otra propiedad que semanifiesta en dispositivos extremadamente pequeños, que requieren de lamecánica cuántica para ser descritos: el espín. “Se trata de una propiedadque define el estado del electrón. Uno puede imaginarse un electrón con elespín apuntando hacia arriba, girando en el sentido de las agujas delreloj y, por el contrario, con el espín hacia abajo, girando en el sentidocontrario a las mismas”, explica la investigadora del CSIC Gloria Platero,que trabaja en el Instituto de Ciencia de Materiales de Madrid.

De acuerdo con el principio de exclusión de Pauli, una ley fundamental dela mecánica cuántica enunciada por Wolfgang Ernst Pauli en 1925, doselectrones no pueden tener números cuánticos iguales, que son los quedefinen su estado. En este trabajo, esto se traduce en que no pueden tenerlos espines apuntando en la misma dirección en un mismo punto cuántico.

Figura que muestra la corriente a través de tres puntos cuánticos, en un campo magnético de

0.2 Teslas en las dos direcciones del voltaje. (Imagen: CSIC)

Platero precisa: “Por tanto, si hay un electrón con espín hacia arriba enun átomo o punto cuántico de la cadena, otro electrón situado en el átomovecino con el espín hacia arriba no puede pasar al primero y se quedabloqueado en el punto cuántico en el que se encuentra inicialmente. Estefenómeno se denomina bloqueo de espín y provoca que la corrienteelectrónica a través de la cadena de puntos cuánticos decrezcaabruptamente y deje de fluir a través del circuito”.

Los científicos han estudiado este fenómeno a través de tres puntoscuánticos y han observado que el efecto es además bipolar, ya que ocurrecuando se aplica un voltaje a ambos extremos de la cadena en un sentido oen el inverso. La interrupción de la corriente debido al bloqueo deespines permite manipular los bits cuánticos confinados en estos sistemas,una manipulación potencialmente más versátil y rica que en otrosestudiados en trabajos previos.

La investigación abre nuevos horizontes para su potencial aplicación en lacomputación e información cuántica. “Otra propiedad sorprendente es que,en este circuito, los electrones se transfieren entre los extremos sinocupar la región intermedia gracias a una propiedad fundamental de lamecánica cuántica: la coherencia cuántica”, indica la investigadora delCSIC.

Según el equipo español implicado en el trabajo, los resultados son unprimer paso para diseñar y analizar el transporte electrónico a través decadenas de más de tres puntos cuánticos. Las potenciales aplicacionestendrían proyección, no sólo en campos como la información y computacióncuánticas, sino también en la espintrónica, donde el espín, en lugar de lacarga, es el que determina las propiedades del circuito nanoelectrónico.

“Hemos demostrado que es posible transportar electrones de un extremo aotro sin ocupar la región intermedia en sistemas de dimensión nanométrica.Los procesadores cuánticos, que requieren mantener intacta latransferencia de datos a largas distancias, podrían llegar a beneficiarsede este estudio”, resaltan los investigadores. (Fuente: CSIC/DICYT)

Transformador eléctrico de tamaño nanométrico

Se ha logrado ensamblar capas atómicas individuales unas sobre otras en lasucesión deseada, de tal modo que la estructura nanométrica resultantefunciona como un transformador eléctrico.

El equipo de Leonid Ponomarenko y Andre Geim (galardonado con un PremioNobel), en la Universidad de Manchester en el Reino Unido, usó cristalesindividuales de un átomo de espesor para construir la estructuramulticapa.

Los científicos usaron el grafeno como un plano conductor de un átomo deespesor, mientras que bastaron cuatro capas atómicas de nitruro de boropara lograr un aislante eléctrico.

El grafeno, aislado por primera vez en la Universidad de Manchester en el2004, tiene potencial para revolucionar diversas aplicaciones, incluyendolos smartphones, la transmisión ultrarrápida de banda ancha, laadministración de medicamentos en puntos muy precisos del cuerpo, y chipsde ordenador. Al grafeno se le considera capaz de reemplazar a materialescomunes de la industria electrónica como por ejemplo el silicio, pero elequipo de Ponomarenko y Geim cree que su utilidad será aún mayor paranuevos dispositivos y materiales que aún no han sido inventados.

Estructura multicapa con grafeno. (Foto: U. Manchester)

En el transformador de tamaño nanométrico, los electrones que se mueven enuna capa metálica arrastran a los electrones de una segunda capa metálica usando sus campos eléctricos locales. Para trabajar con este fenómeno, lascapas metálicas necesitan estar aisladas eléctricamente unas de otras, pero separadas por no más de algunas distancias interatómicas.

Estas nuevas estructuras hechas a base de capas con el grosor de un átomo podrían algún día establecer los fundamentos para una nueva gama de dispositivos electrónicos y fotónicos complejos que no podrían fabricarse con ningún otro material existente, lo que incluye varias nuevas

arquitecturas para transistores y detectores.

El nanotransformador fue ensamblado por Roman Gorbachev, de la Universidadde Manchester.

Aparte del grafeno, hay muchos materiales potencialmente utilizables en forma de láminas con el grosor de un átomo. Combinándolos, es posible crear nuevos materiales que no existen en la naturaleza. "Este camino promete volverse mucho más emocionante que el propio grafeno", valora Geim

Nanorresonadores para mejorar la calidad de la telefonía móvil

En bastantes partes del mundo, no hay suficiente espectro de radio paradar soporte a todos los teléfonos móviles (o celulares) y demásdispositivos portátiles de la gente del lugar. El congestionamientoprovoca la interrupción de llamadas, señales de ocupado, menor calidad delas llamadas, y descargas más lentas en el caso de conexiones a internet.

Para contrarrestar este problema, el sector de las telecomunicaciones estátratando de construir sistemas que operen con canales más claramentedefinidos, para que mayor cantidad de canales puedan repartirse el anchode banda disponible.

Para esto, se necesitan filtros más precisos para teléfonos móviles yotros dispositivos de radio. Tales filtros deben ser sistemas que rechacenel "ruido" y permitan que pasen sólo las señales cercanas a una frecuenciadada.

El equipo de Jeffrey Rhoads, Saeed Mohammadi y Hossein Pajouhi, de la

Universidad Purdue, en West Lafayette, Indiana, Estados Unidos, ha dadoahora con un método para fabricar en grandes cantidades diminutosdispositivos mecánicos que podrían ayudar a que los usuarios de teléfonosmóviles se libren de las molestias provocadas por las interrupciones dellamadas y las descargas lentas. Los dispositivos están diseñados paraaliviar la congestión de las ondas radiales y mejorar así el rendimientode teléfonos móviles y otros aparatos portátiles.

Estos nuevos dispositivos son resonadores nanoelectromecánicos, ycontienen una diminuta "viga" de silicio que vibra cuando se le aplica unacorriente.

Esquema de un nanorresonador. (Foto: Purdue University)

Se ha demostrado que los nanorresonadores controlan sus frecuencias de vibración mejor que otros resonadores. Estos dispositivos podrían reemplazar componentes electrónicos convencionales para lograr una mayor eficiencia y un menor consumo de energía.

Además de su uso como futuros filtros para teléfonos móviles, esos

nanorresonadores también podrían ser utilizados para sensores biológicos yquímicos avanzados en aplicaciones médicas y de seguridad nacional, y posiblemente como componentes de ordenadores y otros dispositivos electrónicos.

Los resonadores pueden ser integrados con facilidad a sistemas y circuitoselectrónicos, porque su técnica de fabricación es compatible con la tecnología CMOS, muy común en los chips.

En el trabajo de investigación y desarrollo también han intervenido Lin Yuy Molly Nelis

Un paso hacia los motores moleculares artificiales

Un estudio publicado en Science demuestra que es posible usar la energía del movimiento de una molécula de hidrógeno para mover una máquina mecánica. El descubrimiento abre la puerta a la posibilidad de desarrollarmotores moleculares que extraigan energía de esa manera.

Procesos como el movimiento de los fluidos, la intensidad de las señales electromagnéticas y la composición química están sujetos a fluctuaciones aleatorias que se conocen como ruido. Se sabe que se puede recolectar la energía procedente de este ruido, ya que en la naturaleza se dan procesos en los que eso ocurre.

Ahora, un equipo de científicos liderados por el español José Ignacio Pascual, responsable del grupo de nanoimagen del centro nanoGUNE de San Sebastián, ha descubierto que el movimiento aleatorio –el ruido– de una molécula de hidrógeno puede causar el movimiento periódico de un osciladormecánico.

“Esto significa que la molécula más pequeña posible, la de hidrógeno, está‘empujando’ un oscilador diez trillones de veces más masivo”, explica Pascual.

El experimento se desarrolló encerrando la molécula en el pequeño espacio entre una superficie plana y la punta afilada de un microscopio de fuerza atómica. Este microscopio utiliza el movimiento periódico de una punta

situada en el extremo de un oscilador mecánico muy sensible. El movimientoaleatorio de la molécula ejerce fuerza contra la punta, haciendo que oscile.

La oscilación de la punta, a su vez, modula el movimiento de la molécula de hidrógeno. Esto da lugar a una 'danza' sincronizada de ambas, en la quela punta se mueve en su oscilación a distancias más largas que el tamaño de la molécula, usando la energía extraída del ruido.

Para inducir el movimiento de la molécula de hidrógeno, Pascual señala que“se hicieron pasar corrientes eléctricas a través de la molécula”, y añadeque nada hace pensar que no pudieran usarse “otras fuentes de energía paragenerar estas fluctuaciones, como por ejemplo la luz”.

Según Felix von Oppen, otro de los autores del trabajo, “un aspecto prometedor de los resultados es que podrían ser considerados en el diseño de motores moleculares artificiales que extraerían la energía de ambientescon ruido”. (Fuente: SINC)

Nanofibras de plástico que se autoensamblan y conducen electricidad casi tan bien como el cobre

Se ha conseguido fabricar con éxito fibras de plástico altamenteconductoras que tienen sólo varios nanómetros de espesor. Además, estosnanohilos se autoensamblan en un proceso que es activado por un destellode luz.

Baratas y fáciles de manejar, a diferencia de los nanotubos carbono, lasnuevas nanofibras de plástico combinan las ventajas de dos clases demateriales capaces de conducir la corriente eléctrica: los tradicionalesmetales y los innovadores plásticos de polímeros orgánicos. De hecho, susnotables propiedades eléctricas son muy similares a las que presentan los

metales.

Además, son ligeras y flexibles como muchos de los plásticosconvencionales, lo que abre la posibilidad de superar uno de los desafíosmás importantes de la electrónica del siglo XXI: la miniaturización de loscomponentes en la escala nanométrica.

Estos asombrosos nanohilos de plástico son obra de científicos del CentroNacional francés para la Investigación Científica (CNRS, por sus siglas enfrancés) y la Universidad de Estrasburgo, en Francia.

Estas fibras reúnen por tanto lo mejor de cada clase de materiales. Sonmuy ligeras y flexibles, y al mismo tiempo capaces de transportardensidades de corriente extraordinarias, casi tanto como las que soportael cobre.

Representación artística de nanofibras. (Foto: M. Maaloum, ICS (CNRS))

El próximo paso del equipo de investigación, dirigido por Nicolas Giuseppone y Bernard Doudin, es demostrar que estas fibras pueden ser usadas a escala industrial para fabricar dispositivos electrónicos miniaturizados, como por ejemplo pantallas flexibles, células solares, transistores y nanocircuitos impresos.

Somos capaces de hacer dispositivos electrónicos más pequeños que un virus

Nanopartículas que sirven para repeler el agua o nanotubos de carbonoutilizados para fabricar elementos fuertes de poco peso. De acuerdo con elfísico Javier Mateos, profesor de Electrónica del Departamento de FísicaAplicada de la Universidad de Salamanca, en España, estos son sólo dosejemplos de las aplicaciones prácticas que la Nanotecnología hadesarrollado en la actualidad.

"Esta tecnología agrupa a todos aquellos campos de la Ciencia que tienenel nexo común de trabajar con cosas muy pequeñas, involucra a disciplinastan diversas como la Medicina, la Química, la Electrónica, la Fotónica ola Biología", señaló el especialista en declaraciones a DiCYT.

La Nanotecnología también es comprendida como la manipulación controladade átomos y moléculas para producir materiales, sustancias y dispositivosen niveles muy pequeños. Su unidad de medida es el nanómetro, el cualequivale a una milmillonésima parte de un metro, es decir, 10 -9 metros."Para hacernos una idea, su tamaño es más pequeño que un glóbulo rojo o uncabello humano", comenta. Por otra parte, un nanómetro es el ancho de unamolécula de ADN y veintidós nanómetros es el tamaño de los transistoresque se usan en la actualidad para elaborar los CPU de los ordenadores olas memorias USB.

Precisamente, estos últimos son los elementos que utilizan para realizarsus investigaciones, los científicos del equipo de trabajo del cual forma

parte Mateos. "Nosotros pretendemos desarrollar circuitos, transistores ydispositivos que vayan más rápido, intentamos obtener sus característicasy optimizar su diseño, tratando de que tengan menos ruido electrónico yfuncionen mejor. Como no tenemos la posibilidad de fabricar este tipo dedispositivos, nuestro grupo de investigación lo que hace es modelización,es decir, procesos de simulación por medio del ordenador", afirma.

Javier Mateos, investigador del Departamento de Física Aplicada de la Universidad de

Salamanca. (Foto: DiCYT)

Para este investigador, la Electrónica es un área de gran aplicabilidad e interés para la Nanotecnología, ya que ha facilitado el desarrollo de circuitos y transistores mucho más pequeños que han cambiado la forma en que utilizamos actualmente los ordenadores. En los últimos 20 a 30 años, los estudios nanotecnológicos han avanzado en la visión práctica de estas tecnologías, desarrollando aplicaciones tan relevantes como la Nanoelectrónica.

La Nanoelectrónica ha vivido un proceso de desarrollo continuo en el cual se han ido reduciendo el tamaño de los dispositivos. Incluye la

electrónica de hace 50 años, en la cual los dispositivos poseían tamaños del orden de los milímetros, transitando por la Microelectrónica hasta alcanzar finalmente niveles nanométricos. Gracias a la Nanoelectrónica "somos capaces de hacer dispositivos electrónicos más pequeños que un virus. Los virus hace nada no se podían ver, no se podía saber cómo eran, mientras que ahora somos capaces de hacer estructuras aún más pequeñas", comentó el especialista.

Actualmente, Mateos se encuentra involucrado en un proyecto europeo en el que su grupo es el coordinador. Dicho proyecto está orientado al uso de terahercios, un tipo de ondas que se encuentran entre los rayos x y los rayos visibles, empleados en la fabricación de sistemas técnicos que permitan la visibilidad entre las paredes o tejidos. Como España no cuentacon las condiciones para la producción de este tipo de dispositivos, su equipo se encarga de desarrollar la parte teórica del proyecto, mientras que cuatro laboratorios europeos que actúan como contraparte, se dedican aimplementar sus posibles procesos de producción.

En un futuro no muy lejano, la investigación en Nanotecnología abrirá la puerta a un número infinito de utilidades, aunque algunas de ellas por ahora son ciencia ficción. Sin embargo es sólo cuestión de tiempo para quesean una realidad. Gracias a estas aplicaciones, se espera desarrollar nanomateriales que puedan monitorizar la temperatura del cuerpo, nanosensores que se implanten debajo de la piel para identificar cuerpos extraños e instrumentos nanométricos que permitan detectar enfermedades. Todos ellos tan pequeños que serían menos invasivos y molestos para las personas, explicó el especialista. (Fuente: SICE/ACV/DICYT

La unidad de almacenamiento magnético de datos más pequeña del mundo

Se ha conseguido construir la unidad de almacenamiento magnético de datosmás pequeña del mundo. Usa sólo 12 átomos por bit, la unidad básica de lainformación digital, y almacena un byte completo (de 8 bits) dentro de unacantidad ínfima de materia: tan sólo 96 átomos. En comparación, una unidad

de disco duro moderna necesita más de 500 millones de átomos por byte.

La proeza tecnológica es obra de un equipo de científicos de IBM y elCentro Alemán para la Ciencia del Láser de Electrones Libres (CFEL)

Esta singular unidad de almacenamiento de datos se construyó átomo porátomo con la ayuda de un microscopio de Efecto Túnel en el Centro deInvestigación de Almaden de IBM, en San José, California.

El equipo de Sebastian Loth del CFEL y Andreas Heinrich de IBM construyólos patrones regulares de átomos de hierro, alineándolos en  filas de seisátomos cada una. Dos filas son suficientes para almacenar un bit. Un byte,a su vez, consta de ocho pares de filas de átomos. Usa sólo un área de 4por 16 nanómetros. Esto corresponde a una densidad de almacenamiento quees cien veces superior a la de una unidad de disco duro moderna.

Los datos son escritos y leídos en la unidad nanométrica de almacenamiento con la ayuda de un

microscopio de Efecto Túnel. (Foto: © Sebastian Loth)

Los datos son escritos y leídos en la unidad nanométrica de almacenamientocon la ayuda de un microscopio de Efecto Túnel. Los pares de filas de átomos tienen dos posibles estados magnéticos, representando los dos valores, 0 y 1, de un bit clásico. Un pulso eléctrico de la punta del microscopio de Efecto Túnel invierte la configuración magnética. Un pulso más débil permite leer la configuración, aunque actualmente el "cabezal" de lectura sólo es estable a una temperatura muy fría: 268 grados centígrados bajo cero

Transistor de un solo átomo y plenamente operativo

En una espectacular proeza de la microingeniería, un equipo de físicos hafabricado un transistor, plenamente operativo, que consta de un únicoátomo, ubicado con precisión sobre un cristal de silicio.

Este diminuto dispositivo electrónico usa como su componente activo unátomo individual de fósforo ubicado entre puertas de control de tipoelectroestático y electrodos de tamaño atómico.

La alta precisión sin precedentes lograda en este diseño podría serdecisiva para emprender la construcción de la primera computadora cuánticaplenamente operativa.

Hasta ahora, los transistores hechos de un solo átomo se habían obtenidobásicamente por azar. Los investigadores hacían muchos intentos, y deentre todas las unidades creadas seleccionaban la que hubiera quedado bienajustada.

Un transistor de un solo átomo. (Foto: UNSW)

En cambio, el nuevo transistor es perfecto porque así ha sido diseñado, tal como subraya Michelle Simmons de la Universidad de Nueva Gales del Suren Australia. En otras palabras, ésta es la primera vez que se consigue controlar a voluntad con este nivel de precisión la colocación de un átomoindividual sobre un substrato para crear un transistor del todo operativo.

El dispositivo tiene incluso pequeños marcadores grabados en su superficiepara que los investigadores puedan conectar contactos metálicos y aplicar un voltaje.

El equipo de Simmons y Martin Fuechsle usó un microscopio de Efecto Túnel (microscopio STM) para ver y manipular átomos en la superficie del cristaldentro de una cámara de vacío.

Las propiedades electrónicas del dispositivo concuerdan perfectamente con las predichas desde el campo teórico para un transistor formado por un solo átomo de fósforo.

En la investigación también han trabajado el grupo de Gerhard Klimeck en la Universidad Purdue de Estados Unidos, y el grupo de Hollenberg en la Universidad de Melbourne en Australia, además de Oliver Warschkow de la Escuela de Física en la Universidad de Sídney, Australia

Ordenadores CuánticosUn sólo ordenador cuántico sería como millones normales

La física cuántica ha permitido al físico austríaco Erwin Schrödinger contar la historia de un gato que moría solo con mirarle y ha sustentado la hipótesis de que la observación del cosmos puede haber acelerado su desaparición. Sus predicciones son tan extrañas que el propio Einstein no creía que pudiesen ser ciertas. Sin embargo, esta extraña disciplina funciona y es real, y promete ordenadores extremadamente potentes que pueden cambiar el mundo.

Erwin Schrödinger

Ignacio Cirac (Manresa, 1965), que acaba de recibir junto al investigador de la Universidad de Innsbruck (Austria) Peter Zoller el Premio Fundación BBVA Fronteras del Conocimiento “por su trabajo en laciencia de la información cuántica”, es uno de los investigadores que más han aportado para intentar domeñar ese universo.

«Una información codificada con física cuántica sería segura frente a los hackers»

¿Cómo es posible que una ciencia que predice un mundo tan subjetivo, en el que algo no existe hasta que una persona toma conciencia de su existencia, puede llegar a ser práctica y utilizada de una forma universal?

Eso es lo curioso, pero es lo que ha pasado en la historia de la ciencia. En principio, uno tiene curiosidad, descubre algo, dice “qué raro es”, y después vienen otras personas que vuelven a estudiarlo y se dan cuenta de que eso tan raro sirve para hacer cosas extraordinarias, que no se podían hacer con las leyes usuales. Y aquí

pasa lo mismo. Con algo muy extraño de la naturaleza, se pueden hacer cosas útiles.

¿Por ejemplo? «Aún no dominamos el mundo microscópico como para hacer ordenadores cuánticos»

Se puede utilizar para comunicar mensajes secretos. De alguna forma, cuando alguien envía un mensaje secreto empleando la física cuántica, si una persona no autorizada lo quiere leer, lo mira y destruye la información. No hay forma de interceptar esa comunicación.

Tendría que saber cómo mirar, para no destruir el objeto.

Sí, aprovechando unas propiedades extrañas de la física cuántica, sabría que, mirando de una forma adecuada, puede observarlo sin destruirlo. Por un lado, permitiría ver si alguien no autorizado está mirando, porque en ese caso el mensaje se destruiría, y eso ya te da una información y, por otro, sólo deja mirar a la persona autorizada.

«Científicos como Einstein no creían que la naturaleza fuese tan extraña»

¿Ha sido posible lograr avances prácticos, más allá del campo estrictamente teórico?

La física cuántica es una teoría muy vieja, fue descubierta hace 100 años, pero algunos aspectos de la teoría cuántica eran tan oscuros quemucha gente, como el propio Einstein, no se los creía, porque decían

que la naturaleza no podía ser tan extraña. Pero desde hace unos 20 años, el desarrollo tecnológico ha permitido comprobar y verificar muchos de estos fenómenos, y ahora ya estamos seguros de que son reales. Ahora puede haber unos 100 laboratorios en todo el mundo que están trabajando con estas leyes.

¿Puede mencionarme alguna aplicación concreta?

Dentro del campo de la comunicación, está muy desarrollada e incluso existe alguna compañía que vende sistemas cuánticos para este fin; se están haciendo experimentos con satélites para transmitir mensajes víasatélite.

¿Cómo afectaría la aplicación de los fenómenos cuánticos a la gestión de la información?

Un ordenador cuántico procesaría la información con las leyes de la física cuántica y eso hace que gane en eficiencia. Cálculos grandes y complejos se podrían hacer de una manera mucho más eficiente. Es como si se procesase a la vez, en paralelo. Con un sólo ordenador, es como si tuvieses millones, esa es un poco la idea. La física cuántica permite propiedades físicas que toman distintos valores a la vez y esoes lo que el ordenador cuántico aprovecha para poder hacer cálculos extraordinarios. Pero aún no tenemos ningún ordenador cuántico.

También han realizado experimentos de teletransporte.

Hemos desarrollado algunas teorías y hecho trabajos conjuntamente con otros grupos en los que las propiedades de un objeto desaparecen de unlugar y aparecen en otro. Por ejemplo, las propiedades de unos fotones, de alguna forma, se esfuman de la luz y aparecen en un conjunto de átomos que está a un metro y medio de distancia.

¿Es algo similar a lo que se hizo en Canarias, donde se teletransportóinformación entre Tenerife y La Palma?

La utilidad de ese experimento está más orientada hacia la criptografía. Para hacer criptografía, se necesita enviar fotones de un sitio a otro y los fotones se absorben. Eso no nos permite llegar alargas distancias. Los equipos que venden algunas compañías funcionan para cinco o seis kilómetros de distancia. Para enviar información cuántica por cable sin que esos fotones desaparezcan, son necesarios repetidores cuánticos que envían un poco de información a una distancia pequeña y luego teletrasportan una propiedad allí, luego

teletransportan otro cantidad y vuelven a enviar. De esta forma, se puede evitar la absorción de fotones.

¿Empleando el teletransporte, sería posible enviar información más rápido que la luz?

Está prohibido por la física enviar información más rápido que la luz,tendría unas consecuencias terribles; está prohibido. Lo que se puede hacer es enviar información de una manera tan secreta que ni el mejor hacker pueda descifrarla y de forma mucho más eficiente. Se puede enviar mucha más información en menos pasos y se puede comprimir la información.

¿Cuáles son los obstáculos que impiden pasar de la teoría a la práctica para construir un ordenador cuántico?

El problema fundamental para construir ordenadores cuánticos es que tenemos que dominar el mundo microscópico. Por ahora podemos hacer experimentos para probar nuestras teorías con cinco átomos o diez. Para construir un ordenador cuántico, necesitaríamos 10.000, 100.000 oun millón. Y eso es un paso muy grande. Es un problema experimental y tecnológico, hay que desarrollar una tecnología para dominar ese mundo. Por ahora, no somos capaces de hacerlo.

—————

La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a sertratables. Mientras un computador clásico equivale a una máquina de Turing, un computador cuántico equivale a una máquina de Turing indeterminista.

La empresa canadiense D-Wave Systems había supuestamente presentado el13 de febrero de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de propósito general; luego la misma compañía admitió que tal máquina llamada Orion no es realmente una Computadora Cuántica, sino una clase de máquina de propósito general que usa algo de mecánica cuántica para resolver problemas.

Origen de la computación cuántica

A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en un espacio, así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejande funcionar correctamente. Cuando se llega a la escala de nanómetros,los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, queson partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se han llegado a escalasde sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica.

La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede tomar dos valores: 0 ó 1. En cambio, en la computación cuántica,intervienen las leyes de la mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite que se puedan realizar varias operaciones a la vez, según el número de qubits.

El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits convencionales, si teníamos un registro detres bits, había ocho valores posibles y el registro sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar, el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (millones de millones de operaciones en punto flotante por segundo) cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de millones de operaciones).

Problemas de la computación cuántica

Uno de los obstáculos principales para la computación cuántica es el problema de la decoherencia cuántica, que causa la pérdida del caracter unitario (y, más específicamente, la reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los sistemas candidatos, en particular el tiempo de relajación transversal(en la terminología usada en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son típicamente proporcionales a la razón entre tiempo de operación frentea tiempo de decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho más corto que el tiempo de decoherencia.Si la tasa de error es lo bastante baja, es posible usar eficazmente la corrección de errores cuánticos, con lo cual sí sería posible tiempos de cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería posible la aplicación eficaz de la corrección de errores cuánticos.

Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de manejar un número lo bastante alto de qubits para resolver problemas computacionalmente interesantes hoy en día.

Hardware para computación cuántica

Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de Di Vinzenzo, y hay varios candidatos actualmente.

Condiciones a cumplir

* El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y controlado. * Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder reproducir a cualquier otra puerta lógica posible). * El sistema ha de mantener su coherencia cuántica a lo largo del

experimento. * Ha de poder leerse el estado final del sistema, tras el cálculo. * El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el número de qubits, para tratar con problemas de mayor coste computacional.

Candidatos

* Espines nucleares de moléculas en disolución, en un aparato de RMN * Flujo eléctrico en SQUIDs * Iones suspendidos en vacío * Puntos cuánticos en superficies sólidas * Imanes moleculares en micro-SQUIDs * Computadora cuántica de Kane

Procesadores

En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de manera que su uso práctico todavía se presenta en un horizonte lejano.

Transmisión de datos

Científicos de los laboratorios Max Planck y Niels Bohr publicaron, ennoviembre de 2005, en la revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de 70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con autocorrección.

Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a distancias mayores a las ya alcanzadas.

Software para computación

Algoritmos cuánticos

Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables al nivel de error de las máquinas actuales.

* Algoritmo de Shor * Algoritmo de Grover * Algoritmo de Deutsch-Jozsa

Modelos

* Computadora cuántica de Benioff * Computadora cuántica de Feynman * Computadora cuántica de Deutsch

Complejidad

La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de error.

Problemas propuestos

Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación clásica para varios problemas, entre ellos:

* Factorización de números enteros * Logaritmo discreto * Simulación de sistemas cuánticos

Cronología

Años 80

A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a la posibilidad de realizar cálculos de naturaleza cuántica.

1981 – Paul Benioff

Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.

1981-1982 Richard Feynman

El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the Physics of Computation” realizado en el Instituto Tecnológico de Massachusetts (EE.UU.) Su charla, bajo el título de “Simulating Physics With Computers” proponíael uso de fenómenos cuánticos para realizar cálculos computacionales yexponía que dada su naturaleza algunos cálculos de gran complejidad serealizarían más rápidamente en un ordenador cuántico.

1985 – David Deutsch

Este físico israelí de la Universidad de Oxford, Inglaterra, describióel primer computador cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría ejecutar diferentes algoritmos cuánticos.

Años 90

En esta época la teoría empezó a plasmarse en la práctica: aparecieronlos primeros algoritmos cuánticos, las primeras aplicaciones cuánticasy las primeras máquinas capaces de realizar cálculos cuánticos.

1993 – Dan Simon

Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y susideas sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor).

1993 – Charles Benett

Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones cuánticas.

1994-1995 Peter Shor

Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su nombre y que permite calcular los factores

primos de números a una velocidad mucho mayor que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran parte de la comunidad científica que observaba incrédula las posibilidades de la computación cuántica, que se trataba de un campo de investigación con un gran potencial. Además,un año más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.

1996 – Lov Grover

Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata de un algoritmo probabilístico con un alto índice de acierto.

1997 – Primeros experimentos

En 1997 se iniciaron los primeros experimentos prácticos y se abrieronlas puertas para empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos teóricamente hasta entonces. Elprimer experimento de comunicación segura usando criptografía cuánticase realiza con éxito a una distancia de 23 Km. Además se realiza el primer teletransporte cuántico de un fotón.

1998 – 1999 Primeros Qbit

Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2-Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde, en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.

Año 2000 hasta ahora

2000 – Continúan los progresos

De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit capaz de ejecutar un algoritmo de

búsqueda de orden, que forma parte del Algoritmo de Shor. Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory (EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular la codificación en bits de los computadores tradicionales.

2001 – El algoritmo de Shor ejecutado

IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizandopara ello 1018 moléculas, cada una de ellas con 7 átomos.

2005 – El primer Qbyte

El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck (Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits utilizando trampas de iones.

2006 – Mejoras en el control del cuanto

Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más complejo a medida que aumenta el número de Qbits empleados por los computadores.

2007 – D-Wave

La compañía canadiense D-Wave presenta públicamente su primer computador cuántico de 16 Qbit. Entre las aplicaciones que presenta para su sistema, se encuentra un sistema gestor de bases de datos y unalgoritmo que soluciona Sudokus. Todo ello a través de una interficie gráfica similar a la utilizada en los computadores actuales, tratándose del primer acercamiento de la computación cuántica al mundocomercial y no tan científico.

2007 – Bus cuántico

En septiembre de 2007, dos equipos de investigación estadounidenses,

el National Institute of Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir componentes cuánticos a través de superconductores. De este modo aparece el primer bus cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente dispositivo.

2008 – Almacenamiento

Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos consiguió almacenar por primera vez un Qubit (el equivalente a un “bit” del “mundo clásico”, pero en el “mundo cuántico”) en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos. Este peridodo puede ser expandible mediante métodos de correccion de errores, por lo que es un gran avance en el almacenamiento de información.

2009 – Procesador cuántico de estado sólido

El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la universidad de Yale, que ya en 2007 desarrollaron el Bus cuántico, crean el primer procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el tamaño de un átomo artificialmente.

——————–

Los ordenadores cuánticos llegarán mucho antes de lo previsto

Computación CuánticaHace décadas que científicos, ingenieros y medios de comunicación hablan de los ordenadores cuánticos, del enorme poder de computación que tendrán y de que serán capaces de realizar cálculoshoy en día inabordables, pero lo cierto es que los años han ido pasando y el silicio se ha seguido manteniendo como la punta de lanza indiscutible de los sectores de la informática, la electrónica y la microelectrónica. Este reinado, eso sí, podría llegar a su fin en los próximos años.

El poder de los computadores cuánticos reside en la extraña manera en que la materia se comporta a nivel subátomico. A esa escala, las partículas como los electrones se rigen por leyes que no responden a la física normal. Tanto es así, que en el mundo cuántico una partículapuede estar en dos lugares al mismo tiempo. Es más, puede estar en dosestados diferentes a la vez, ya sea como partícula o como onda.

Los ordenadores actuales trabajan con bits, que pueden tener un valor de 0 ó 1. En cambio, en la computación cuántica intervienen las leyes de la mecánica cuántica y la partícula puede estar en superposición coherente: es decir, puede ser 0 ó 1 pero puede ser también un 0 y un 1 al mismo tiempo. Tal circunstancia permite que se puedan realizar varias operaciones a la vez, según el número de qubits (bits cuánticos).

Os pongo un ejemplo muy sencillo para que veáis la potencia que tendrála computación cuántica: en la actualidad, en un registro de 2 bits tenemos hasta 4 valores posibles (00, 01, 10, 11) pero sólo podemos utilizar uno de esos valores al mismo tiempo para realizar una operación. En cambio, si tenemos un vector de 2 qubits, la partícula puede tomar los 4 valores distintos a la vez.

De la misma manera, si tuviéramos un registro de 3 bits tendríamos 8 valores posibles (000, 001, 010, 011, 100, 101, 110, 111) pero seguiríamos pudiendo coger uno sólo, mientras que en el caso de los qubits tendríamos la posibilidad de trabajar con los 8 al mismo tiempogracias a la superposición cuántica.

Un hipotético computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (1012 operaciones en punto flotante por segundo). Una enormidad si tenemos en cuenta que los microprocesadores más avanzados de la actualidad corren a “apenas” unos cuantos gigaflops (109 operaciones por segundo). Como veis, el poder de computación de los ordenadores cuánticos será bestial.

Los datos son impresionantes, pero… ¿cuándo se empezarán a comercializar los primeros computadores cuánticos? Anton Zeilinger, unfísico cuántico de la Universidad de Viena, es de la opinión que muy pronto. Los avances logrados en los últimos tiempos han llevado a esteinvestigador a afirmar que en 20 años utilizaremos los ordenadores cuánticos en nuestro día a día de manera habitual.

De la misma opinión es David Deutsch, un físico de la Universidad de Oxford, que, al igual que Zeilinger, no hace tanto pensaba que

deberíamos esperar un número indeterminado de años para ver ordenadores cuánticos en funcionamiento, pero que ahora ha cambiado deforma de pensar y cree que en sólo unos años podremos contemplar los primeros modelos comerciales.

Así pues, si ambos investigadores están en lo cierto, los primeros ordenadores cuánticos estarán disponibles mucho antes de lo que podíamos imaginar. Será cuestión de comprobar entonces si su capacidadde cálculo es realmente tan descomunal como se muestra sobre el papel.

Los ordenadores cuánticos llegarán mucho antes de lo previsto

Hace décadas que científicos, ingenieros y medios de comunicación hablan de los ordenadores cuánticos, del enorme poder de computación que tendrán y de que serán capaces de realizar cálculoshoy en día inabordables, pero lo cierto es que los años han ido pasando y el silicio se ha seguido manteniendo como la punta de lanza indiscutible de los sectores de la informática, la electrónica y la microelectrónica. Este reinado, eso sí, podría llegar a su fin en los próximos años.

El poder de los computadores cuánticos reside en la extraña manera en que la materia se comporta a nivel subátomico. A esa escala, laspartículas como los electrones se rigen por leyes que no responden a la física normal. Tanto es así, que en el mundo cuántico una partícula puede estar en dos lugares al mismo tiempo. Es más, puedeestar en dos estados diferentes a la vez, ya sea como partícula o como onda.

Los ordenadores actuales trabajan con bits, que pueden tener un valor de 0 ó 1. En cambio, en la computación cuántica intervienen las leyes de la mecánica cuántica y la partícula puede estar en superposición coherente: es decir, puede ser 0 ó 1 pero puede ser también un 0 y un 1 al mismo tiempo. Tal circunstancia permite que se puedan realizar varias operaciones a la vez, según el número de qubits (bits cuánticos).

Os pongo un ejemplo muy sencillo para que veáis la potencia que tendrá la computación cuántica: en la actualidad, en un registro de2 bits tenemos hasta 4 valores posibles (00, 01, 10, 11) pero sólo podemos utilizar uno de esos valores al mismo tiempo para realizar una operación. En cambio, si tenemos un vector de 2 qubits, la partícula puede tomar los 4 valores distintos a la vez.

De la misma manera, si tuviéramos un registro de 3 bits tendríamos 8 valores posibles (000, 001, 010, 011, 100, 101, 110, 111) pero seguiríamos pudiendo coger uno sólo, mientras que en el caso de losqubits tendríamos la posibilidad de trabajar con los 8 al mismo tiempo gracias a la superposición cuántica.

Un hipotético computador cuántico de 30 qubits equivaldría a un procesador convencional de 10 teraflops (1012 operaciones en punto flotante por segundo). Una enormidad si tenemos en cuenta que los microprocesadores más avanzados de la actualidad corren a "apenas" unos cuantos gigaflops (109 operaciones por segundo). Como veis, el poder de computación de los ordenadores cuánticos será bestial.

Los datos son impresionantes, pero... ¿cuándo se empezarán a comercializar los primeros computadores cuánticos? Anton Zeilinger,un físico cuántico de la Universidad de Viena, es de la opinión quemuy pronto. Los avances logrados en los últimos tiempos han llevadoa este investigador a afirmar que en 20 años utilizaremos los ordenadores cuánticos en nuestro día a día de manera habitual.

De la misma opinión es David Deutsch, un físico de la Universidad de Oxford, que, al igual que Zeilinger, no hace tanto pensaba que

deberíamos esperar un número indeterminado de años para ver ordenadores cuánticos en funcionamiento, pero que ahora ha cambiadode forma de pensar y cree que en sólo unos años podremos contemplarlos primeros modelos comerciales.

Así pues, si ambos investigadores están en lo cierto, los primeros ordenadores cuánticos estarán disponibles mucho antes de lo que podíamos imaginar. Será cuestión de comprobar entonces si su capacidad de cálculo es realmente tan descomunal como se muestra sobre el papel

SuperConductoresLos conductores normales presentan pérdidas cuandocirculan corrientes en su interior. Esto se debe a quela resistencia que poseen al paso de una corrienteeléctrica, transforma parte de la energía eléctrica enenergía térmica. Sin embargo, algunos materiales secomportan de forma extraña a muy bajas temperaturas.Estos materiales, denominados "superconductores", cuandoson sometidos a una temperatura mayor que una ciertatemperatura crítica (diferente para cada material)presentan alta resistencia, por lo general mucho mayorque un conductor normal y de esta manera decimos que elmaterial se encuentra en su "estado normal". Por elcontrario, por debajo de la temperatura críticapresentan un fenómeno en el cual la resistenciaeléctrica disminuye rápidamente hasta llegar a cero,decimos entonces que el material se encuentra en su"estado superconductor". Otra de las propiedades quecaracteriza a estos materiales es la expulsión de campo

magnético en el estado de superconducción conocida máscomúnmente como el Efecto Meissner. Esta última es lapropiedad esencial del estado superconductor.

Cuando el material pasa del estado normal al estadosuperconductor, el cambio en la resistividad puede sermuy abrupto y se produce lo que en física se denomina"cambio de fase". Si miramos el material a unatemperatura mayor que la crítica, encontraremospropiedades marcadamente distintas a las que veremos atemperaturas menores que la crítica.

Existen varios tipos de cambios de fase como por ejemploel cambio de fase que se produce cuando enfriamos unrecipiente con agua: si llegamos a enfriarlo losuficiente (por debajo de 0ºC), veremos que el aguasimplemente se congela. Las propiedades del agua a 25ºCy a -10ºC son claramente diferentes. Algo parecidoocurre en el cambio de fase superconductor, solo que laspropiedades que cambian en la transición son propiedadeseléctricas y magnéticas, y no propiedades estructuralescomo en el ejemplo del agua. Es más, para el caso de losmetales que al enfriarlos se vuelven superconductores,se sabe que en la transición no hay cambio en laestructura cristalina ni en las propiedades elásticasdel material.

Las propiedades que cambian en la transición del estadonormal al estado superconductor son principalmente laspropiedades magnéticas. En el estado superconductor puroprácticamente no hay penetración de flujo magnético enel material y los efectos termoeléctricos desaparecen.

Se han encontrado diferentes materiales que se vuelvensuperconductores por enfriamiento, cada uno a sutemperatura crítica propia. Algunas temperaturascríticas son de apenas unos pocos grados Kelvin(recordar que 0ºK corresponde a -273ºC), implicando unesfuerzo tecnológico importante el acceder a tan bajastemperaturas; en los últimos años ha sido posiblediseñar materiales cuyas temperaturas críticas rondanlas decenas de grados Kelvin, lo que en cierta medidafacilita su estudio y utilización.

Hay fundamentalmente dos razones por las que estosmateriales despiertan tanto interés. La primera es deíndole económica. Para hacer uso de las propiedadessuperconductoras de un material hay que enfriarlo pordebajo de una temperatura crítica. Cuanto más baja seala temperatura a la que se deba trabajar, mayores seránlos costos de refrigeración. Si para alcanzar el estadode superconductividad debe operarse a temperaturasinferiores a los 20 K, es necesario emplear heliolíquido. A temperaturas más altas se puede trabajar conhidrógeno, pero por encima de 80 K se puede usar airelíquido, uno de los materiales refrigerantes más baratosque existen. Cuando se superen ciertos inconvenientes decarácter técnico, los nuevos superconductores se podránemplear a escala industrial sin mayores costos derefrigeración.

Pero hay una segunda razón por la que los físicos estáninteresados en estos materiales. Hoy, después de algomás de un año de trabajo, hay una generalizadaconvicción de que se está frente a un nuevo fenómenofísico. La teoría que consiguió explicar elcomportamiento de lo que podemos llamar"superconductividad convencional", no puede hacerlopropio con la superconductividad a temperaturas tanaltas. Los mecanismos que dan origen a lasuperconductividad en estos nuevos materiales sonprobablemente distintos a los conocidos. Si esto es así,los físicos se encuentran frente a un gran desafío:

comprender y explicar a qué se debe lasuperconductividad de alta temperatura critica.

¿Para que se usa un Superconductor?

Posibles aplicaciones de los superconductores.

Antes de realizar una descripcion de los usos actuales yfuturos de los superconductores les recomiendo que veanel siguiente video donde se realiza una interesantedemostración del uso de los mismos en trenes magnéticos.

Super Tren Magnético!!!

Hasta ahora, la principal utilidad de un superconductores la producción de campos magnéticos muy intensos (delorden de miles de veces del campo magnético del imán dela heladera). Estos campos tienen importantesaplicaciones en medicina (RMN), frenos magnéticos,aceleradores, etc. Por otro lado, los campos magnéticosintensos son necesarios para controlar los reactores defusión nuclear, aún experimentales, que serían una formaalternativa de producción de energía no contaminante.Además, la posibilidad de tener materiales conresistencia nula permitiría almacenar eficientementeenergía eléctrica.

La aplicación más importante por el momento es laproducción de campos magnéticos, que se emplean,principalmente, en los laboratorios de física con finesde investigación. Dentro de la investigación en el campode la física, también se utilizan electroimanessuperconductores para generar campos magnéticosaltamente estables, útiles en los estudios de laresonancia magnética nuclear y la microscopíaelectrónica de alta resolución. Son también utilizadosen las cámaras de burbujas que sirven para la detección

de partículas y que requieren campos magnéticos muyintensos.

Desde el punto de vista comercial, se cree que losmotores y generadores superconductores tendrán enormesconsecuencias en lo social y económico. También se deseautilizar electroimanes superconductores para lalevitación de trenes de transporte de pasajeros o decarga y a menos que investigaciones futuras indiquen loopuesto, parece que no existen problemas técnicosfundamentales con este sistema. Sin embargo, serequieren algunas innovaciones técnicas antes de podercompletar un diseño comercial.

El descubrimiento de materiales superconductorescerámicos con una elevada temperatura crítica hace aúnmás atractiva la idea de la utilización de materialessuperconductores para la transportación masiva (verfigura). Cuando menos ya no se requerirá enfriar atemperatura de helio líquido, bastará con larefrigeración que proporciona el nitrógeno líquido.Claro que aún sigue la búsqueda de materiales cerámicossuperconductores de temperatura crítica superior a latemperatura ambiente y, si se logra hallarlos, ya noserá necesaria la refrigeración del sistema,reduciéndose así los costos de construcción y operación.

Por otro lado, desde el descubrimiento del llamadoefecto Josephson y el desarrollo alcanzado en el campode los circuitos integrados trajeron como consecuenciauna perspectiva espléndida de aplicaciones de lasuperconductividad en la electrónica.

El efecto Josephson consiste en el paso de corrientessuperconductoras a través de una unión que, normalmentey desde un punto de vista clásico, no debería dejarpasar ningún electrón. Es un fenómeno típicamentecuántico, explicable por la mecánica cuántica.

La corriente Josephson está presente aun en ausencia deun voltaje aplicado a la unión (que recibe el nombre de

unión túnel). Esta corriente de voltaje cero dependefuertemente de un campo magnético aplicado. Estascaracterísticas permiten disponer de un interesanteinterruptor para circuitos lógicos. Este efecto tambiénse observa, desde luego, en los nuevos materialessuperconductores cerámicos.

Para las computadoras, el uso de dispositivos de efectoJosephson lleva a tiempos de transferencia de corrienteextremadamente breves. Los tiempos de respuesta de uninterruptor de efecto Josephson son de 5 a 10picosegundos (un picosegundo es igual a 0.000000000001segundos).

La dificultad de la aplicación del efecto Josephsonradica en la elaboración de la unión en donde se da esteefecto. Dicha unión ha de construirse con capas de oxidode unos 30 angstroms y, además, las características hande ser estables ante ciclajes térmicos y almacenamiento.Sin embargo, su utilización parece muy ventajosa ypolifacética.

El SQUID (dispositivo superconductor de interferenciacuántica, por sus siglas en inglés) es uno de losdispositivos superconductores más utilizados. Existendos tipos de este dispositivo: el SQUID de corrientedirecta (cd) y el SQUID de radio frecuencia (rf). Sonlos instrumentos más sensibles que existen para mediruna gran variedad de cantidades físicas: camposmagnéticos, cambios espaciales de campos magnéticos,susceptibilidades magnéticas, voltajes muy pequeños ydesplazamientos microscópicos.

Aunque, por ahora, es demasiado pronto para que estosdispositivos tengan una gran repercusión en aplicacionesprácticas, dentro de la próxima década se espera un granauge, tanto en la variedad de estos dispositivossuperconductores como en la variedad de susaplicaciones. Una de las más novedosa es enbiomagnetismo, donde se utilizan para detectar

espeacialmente las fuentes de los pequeñísimos camposmagnéticos generados por el cerebro.

Algunos experimentos realizados en eldepartamento de Física de la Facultadde Ciencias Exactas Los siguientes videos muestran experimentos realizadospor alumnos de la licenciatura de Física de la UNLP.Estos experimentos fueron realizados en la materiaExperimentos Cuánticos y en los videos puede verse unapastilla superconductora sometida a un campo magnético.

Aplicaciones de los superconductores.

Las aplicaciones de los materiales superconductivos están limitadas por dos motivos principales: 1.- La necesidad de enfriar el superconductor. 2.- Su eficiencia que en general, es inadecuada por la corriente alterna. En un campo alternante se presenta histéresis magnética. Esta presencia crea regiones localizadas de sobrecalentamiento que tiende a volver normal al superconductor. Las aplicaciones de los materiales superconductores entran en dos categorías principales, transmisión de energía y magnetos superconductivos.

En la actualidad se utilizan varios sistemas interesantes basados en los magnetos superconductivos. Uno de esos es el generador eléctrico superconductivo. Los generadores como estos son similares en concepto

a un generador convencional. Los conductores eléctricos en un motor rotatorio crean un campo magnético revolvente que produce una corriente eléctrica en los conductores del cilindro que lo envuelve llamado estator. Un generador superconductivo utilizaría un rotor hilvanado con alambres superconductivos.

El rotor estaría rodeado con un estator criogénico. Otra aplicación delos magnetos superconductores es en el desarrollo de motores lineales que se pueden usar para impulsar trenes de alta velocidad. Los sistemas de propulsión convencionales limitan la rapidez y seguridad de los trenes. Estos problemas se solucionarían con trenes que flotaran en campos magnéticos y se impulsaran con ellos. También se usan magnetos superconductivos para estudiar sistemas de potencia magneto-hidrodinámica y termonuclear. En los dos sistemas se contiene en un campo magnético, gases ionizados muy calientes (plasma). Sólo los magnetos superconductivos pueden generar los inmensos campos magnéticos que se necesitan para confinar el plasma y evitar que entreen contacto con las paredes del recipiente.

Un uso comercial muy importante de los magnetos superconductivos actualmente son los analizadores de resonancia magnética. Estos dispositivos se usan en el campo de la medicina como una herramienta de diagnóstico. Esencialmente, el campo magnético intenso que genera el superconductor estimula que el núcleo de los átomos emita radiación. Esta radiación se usa para producir la imagen de una sección transversal del cuerpo de un paciente o de sus órganos internos. De hecho, no solo se obtiene la forma y la densidad de un órgano sino que esta técnica es capaz de analizar químicamente el tejido que está revisando. La ventaja obvia de este procedimiento es la detección temprana y los diagnósticos precisos de las enfermedades o anormalidades en el tejido humano.

Aplicaciones de la superconductividad para una electricidad más segura

Los hábitos de nuestra sociedad están demandando constantemente una mayorcantidad de energía. Ello está suponiendo un reto para todos los sistemas dedistribución. En primer lugar, es necesario utilizar diferentes sistemas deproducción y además se demanda un mayor grado de interconexión en las redes dedistribución lo que a veces es un serio problema al estabilizar la tensión enla red. Por otra parte, algunos elementos de estas redes de distribución seestán utilizando casi al límite de sus posibilidades. Además de estos hechoscualquier sistema eléctrico puede verse sometido a corrientes de cortocircuitopor múltiples razones como, por ejemplo, el deterioro accidental de losaislantes de los cables, rayos o cortocircuitos causados por aves o caída deárboles.

Todos los equipos eléctricos que estén conectados a la red eléctrica debenpoder soportar las tensiones térmicas y mecánicas asociadas con estascorrientes de cortocircuito. Los componentes deben diseñarse para soportarestas corrientes durante un periodo de tiempo, que es determinado por eltiempo que necesitan los interruptores de la red para actuar y que puedevariar entre unos 20 y 300 milisegundos. En consecuencia, cualquier sistemaque limite los valores máximos que pueda alcanzar la corriente durante uncortocircuito permitirá que los sistemas de protección instalados en losequipos se abaraten de forma considerable.

En este contexto se está incrementando la demanda de sistemas de limitación decorriente efectivos. Un sistema ideal de este tipo sería aquel que encondiciones normales de operación casi no influyera en la red, pero que en elmomento en que se produce cualquier cortocircuito sea capaz de limitar lacorriente máxima a un valor lo más pequeño posible, cercano al valor de lacorriente nominal de trabajo. Ejemplo de estos sistemas de limitación lospodemos encontrar en los fusible rápidos, en sistemas electrónicos deinterrupción de corriente o en componentes con relaciones voltaje-intensidadno lineales.

En este último grupo es en el que podemos encuadrar a los materialessuperconductores. En este caso nos beneficiamos de que en determinadascondiciones podemos inducir una transición desde un estado con resistenciacero y con apantallamiento magnético (estado superconductor) a otro estado conuna resistencia finita que puede alcanzar valores considerables y sinposibilidad de apantallar los campos magnéticos (estado normal) (en la imagen).

Para unas condiciones fijas de temperatura y campo magnético, esta transiciónse produce a un valor de corriente eléctrica que se llama corriente crítica.

En la imagen: Ejemplo de transición desde un estado superconductor a otro normal cuando aumenta lacorriente que circula por un material superconductor, en este caso barras de Bi2Sr2CaCu2O8+ texturadascon técnicas de fusión zonal láser.

Configuraciones básicas de un limitador de corriente superconductor

El concepto más sencillo de un limitador de corriente superconductor es elresistivo. En esta configuración, el material superconductor se conecta enserie en la línea a proteger. El superconductor se diseña para que lacorriente nominal de la red sea inferior al valor de la corriente crítica. Deesta forma la interferencia del superconductor en la línea es despreciable encondiciones normales de trabajo.

Cuando se produce un cortocircuito la corriente eléctrica supera el valorcrítico y el material transita al estado resistivo. Con ello la impedancia enel circuito aumenta rápidamente y la corriente máxima que se alcanza esbastante inferior a la corriente de cortocircuito.

La situación óptima se produciría con un material superconductor muy largo. Enesta caso, como la resistencia que es capaz de generar un material esproporcional a su longitud, lograríamos que la limitación fuera efectiva encuanto la corriente superara ligeramente el valor de corriente crítica. Eneste contexto diferentes grupos de investigación y empresas han desarrolladomateriales superconductores con geometrías que permiten obtener muestras conlongitudes superiores al metro. Un ejemplo es la alternativa presentada porNexans Superconductors en donde sobre un tubo de material superconductor se hamecanizado un camino en forma de doble hélice.

En la imagen: Diseño de un elemento basado en una doble hélice sobre un tubo de materialsuperconductor con el objeto de ser utilizado en un limitador de corriente superconductor. //Imagenutilizada con permiso de Nexans Superconductors//.

Un problema adicional es que hay que tener en cuenta que los materialessuperconductores de alta temperatura son materiales cerámicos y, enconsecuencia, son materiales aislantes térmicos. Este hecho es importante a lahora de describir cómo se inicia la transición al estado resistivo.Generalmente este proceso se inicia en el punto del material que presenta laspeores propiedades y ese punto al generar resistencia se va calentando. Adiferencia de un metal, esta calor no calienta todo el material sino que sequeda concentrado en esa región creando lo que se llama un punto caliente. Enesta situación el limitador de corriente no sería efectivo y este es elsegundo reto de los investigadores, lograr que cuando se produce la transiciónsea todo el material el que transita y genera resistencia y no solamente estosprimeros puntos. Para ello se está trabajando en lograr materiales conpropiedades más uniformes y en alternativas que favorezcan que una vez que seha iniciado la transición en un punto, esta transición se propague a toda lamuestra lo más rápidamente posible. Una solución que se está utilizandohabitualmente es recubrir el material superconductor con una pequeñas capametálica que ayude a distribuir el calor generado en estos puntos calientes yactúe como resistencia en paralelo.

Un segundo diseño de limitador de corriente superconductor es el que se conocecomo inductivo. En este caso el limitador de corriente es un transformador enel que el primario es una bobina metálica a la que se conecta la red y queestá acoplada con un secundario superconductor cortocircuitado. En condicionesnormales el secundario está en estado superconductor que es capaz de compensarel campo magnético creado por el primario. En cambio al producirse elcortocircuito, el material superconductor pasa al estado resistivo y cambiacompletamente el acoplamiento del transformador incrementando la impedancia

del sistema y limitando la corriente. En este caso diseñando adecuadamente eltransformador podemos proteger adecuadamente al superconductor. El principalproblema es conseguir muestras superconductoras con los tamaños requeridos.Generalmente son necesarios cilindros o anillos con diámetros en el orden de50 a 70 centímetros.

Existen otros diseños que se han llamado híbridos. En ellos el secundario deltransformador se fabrica con una bobina metálica normal, pero que estácortocircuitada a través de un material superconductor. En estado normal, elsuperconductor no presenta resistencia, mientras que al producirse elcortocircuito la impedancia del secundario aumenta porque el superconductorempieza a generar resistencia.

Otro aspecto importante de un limitador de corriente superconductor es que unavez que se ha producido la limitación el sistema puede volver por sí solo denuevo al estado superconductor sin necesidad de ninguna intervención externa.Usualmente este tiempo puede llegar a ser de unos pocos segundos aunque seestá trabajando intensamente en reducir este tiempo todo lo posible.

En estos momentos se están finalizando ya los primeros prototipos a escalacomercial, los cuales se han comenzado a instalar experimentalmente enpequeñas subestaciones. Está previsto que en el año 2010 se pueda iniciar lacomercialización de los primeros limitadores de corriente superconductores.

El grupo de superconductividad aplicada

El grupo de superconductividad aplicada desarrolla varias líneas deinvestigación relacionadas con el desarrollo de materiales superconductorespara aplicaciones eléctricas de potencia. El grupo se ha concentrado en eldesarrollo de dos técnicas de procesado: la fusión zonal inducida con láser yla fabricación de hilos y cintas con la técnica de polvo en tubo.

Las características de la radiación láser permiten concentrarla en un volumende material que se calienta hasta alcanzar una temperatura tal que se funde.Moviendo la muestra con respecto al láser logramos que este pequeño volumen sevaya moviendo a lo largo de la muestra. Cuando esta técnica se usa enmateriales superconductores de alta temperatura, el material que solidificadespués de haber pasado bajo el láser está orientado (en la imagen) y con ello seconsiguen mejorar las propiedades eléctricas del material.

En la imagen: Sección de un material superconductor en el que una zona se ha texturado con técnicasláser. La región 1 es el material base sin estar tratado con el láser. La región 2 es el volumen que funde elláser. La región 3 es el material solidificado después de haber sido fundido con el láser y en el que sepuede ver que los granos están orientados.

De esta forma se han fabricado barras cilíndricas y recubrimientos. En elprimer caso se consigue que cuando el material se enfría a 77 K por una barrade un milímetro de radio puedan circular más de 100 amperios sin que aparezcaresistencia.

Por otra parte, se están fabricando recubrimientos de varios centímetroscuadrados sobre soportes cerámicos y metálicos. Para ello se utiliza un láserde diodos que tiene la peculiaridad que su haz se puede focalizar en una líneade varios centímetros de longitud. De esta forma se han podido texturarsuperficies de varios centímetros cuadrados. Para conseguir fabricar unconductor de la longitud suficiente se han mecanizado caminos utilizandotécnicas de ablación láser .

En la imagen:  Lámina de material superconductor texturada con fusión zonal láser sobre la que se hamecanizado un camino en forma de meandro con técnicas de ablación láser.

En este caso se concentra mucha energía durante un periodo de tiempo muy cortologrando que el material se evapore y sea eliminado. La ventaja de latecnología láser en este proceso es que se pueden mecanizar caminos con lageometría que se desee. Y finalmente, para minimizar los efectos de los puntoscalientes se está trabajando en la deposición de capas metálicas de espesorcontrolado utilizando tecnologías de electrodeposición en medios no acuosos yaque el agua reacciona químicamente con estos materiales.

Composición del grupo de investigación

El grupo de investigación de Superconductividad Aplicada está integrado porinvestigadores del Instituto de Ciencia de Materiales de Aragón(CSIC-Universidad de Zaragoza). En el desarrollo de esta línea de investigación deaplicación de tecnologías láser para el procesado de materialessuperconductores también colaboran investigadores del Laboratorio deMateriales Procesados con Láser del ICMA.

Miembros del grupo de Superconductividad Aplicada

Navarro Linares, Rafael Angurel Lambán, Luis Alberto Badía Majós, Antonio

Lera García, Francisco Martínez Fernández, Elena Rojo Martínez, José Antonio Mora Alfonso, Mario Sotelo Meig, Andrés Gimeno Bellver, Fernando Martínez López, Mónica

Colaboradores habituales del ICMA

De la Fuente Leis, Germán Díez Moñux, Juan Carlos López Gascón, Clarisa

Tema Aragón Investiga: 28/12/2005

Bibliografía

http://noticiasdelaciencia.com/sec/tecnologia/nanotecnologia/

Noticias de Ciencia y Tecnología Amazings NCYT

Camous

http://campus.uptelesup.com/