Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de...

72
Revista semestral de los Centros de Investigación Cooperativa de Euskadi Heinrich Rohrer Entrevista con el Premio Nobel de Física 1986 Chimpancé + Jilguero = ¿Humano? Juan Uriagereka, catedrático de la Universidad de Maryland ENTORNO CIC Estrategia integral de apoyo al desarrollo empresarial de las nanociencias CIC nanoGUNE y CIC microGUNE Proyectos de Investigación de los CIC de Euskadi nanoBASK 2015 Abril 2007 nº1 La era de la Nanotecnología

Transcript of Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de...

Page 1: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

Revista semestral de los Centros de Investigación Cooperativa de Euskadi

Heinrich Rohrer Entrevista con el Premio Nobel de Física 1986

Chimpancé + Jilguero = ¿Humano?Juan Uriagereka, catedrático de la Universidad de Maryland

ENTO

RN

O C

IC

Estrategia integral de apoyo al desarrollo empresarial de las nanociencias

CIC nanoGUNE y CIC microGUNEProyectos de Investigación de los CIC de Euskadi

nanoBASK 2015

Abril 2007 nº1

La era de la

Nanotecnología

Page 2: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,
Page 3: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

Contenidos

Nanotecnología, el gran reto de lo pequeño, por Pedro Miguel Etxenike.

Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986, Heinrich Rohrer.

Juan Uriagereka, catedrático de la Universidad de Maryland, diserta sobre la evolución lingüística de los humanos, y Félix Ares, director de relaciones con el Sistema Educativo de Kutxa, habla de la importancia de la divulgación científica para una verdadera democracia.

Jose Maiz, Intel Fellow, director de Calidad y Fiabilidad de Tecnologías Lógicas de Intel, escribe sobre las tendencias de los semiconductores en la era de la nanotecnología. Opinión de Carlos Luri, director general de CIC microGUNE.

··· Estrategia nanoBASK 2015: Joseba Jauregizar avanza las principales líneas de la estrategia nanoBASK 2015. ··· CIC nanoGUNE y CIC microGUNE, proyectos de investigación en marcha. ··· Empresa vasca / Euskal enpresa.

Discurso de los Premios Nacionales de Investigación 2006. Noticias sobre la actualidad científica en síntesis.

Santiago Fernández Fernández, miembro de la Comisión de Divulgación de la Real Sociedad Matemática Española (RSME), nos acerca la figura del matemático ruso Nicolai Ivanovich Lobachevski.

Editorial 04

Entrevista 06

Divulgación 16

Investigación hoy 22

Entorno CIC 31

Actualidad Científica 58

Científicos Ilustres 63

Page 4: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

Nanotecnología, el gran reto de lo pequeñoA lo largo de la historia, la humanidad ha identificado grande con pode-roso, eficaz, eficiente. Lo grande producía respeto, temor, reverencia y asombro. Las maravillas del mundo antiguo eran grandes. Los mayores logros de la ingeniería de finales del siglo XIX y comienzos del XX se identifican con lo grande: grandes puentes, grandes ferrocarriles, gran-des carreteras, grandes barcos... Lo eficaz, lo útil, lo rentable requería tamaño. El tamaño sí importaba. Lo pequeño encontraba su sitio en curiosidades como miniaturización de códices o, a lo más, en algunas maquinarias de precisión como el reloj de bolsillo, probablemente una de las tecnologías más sofisticadas que conocieron nuestros abuelos.Lo pequeño entra de forma decisiva en el reino de lo útil con la micro-electrónica. Lo pequeño es más rápido, más poderoso, más eficiente. La mecánica cuántica abre el camino para la comprensión de la estruc-tura de la materia a escala microscópica y, junto con la mejoría en las técnicas de vacío, lleva al descubrimiento del transistor. La subsiguien-te revolución microelectrónica ha cambiado la forma de relacionarnos, de trabajar, de comunicarnos, la forma de vivir, la cultura... El concepto de chip surge en los años 50, cuando se comprende la posibilidad de integrar todos los elementos de un circuito electrónico en una pieza de silicio. Durante las dos primeras décadas de la revolución de la mi-niaturización, el prefijo micro es el adecuado. Cuando investigadores de IBM consiguen escribir en 1976 “USA 1976” en letras de oro de 10 nanómetros, la electrónica entra en el reino de lo nano.

El prefijo nano significa la milésima parte de la micra. En un sentido general, nanociencia y nanotecnología se refieren al estudio de mate-riales y procesos en los que, al menos en alguna de sus dimensiones, las distancias relevantes son del orden del nanómetro. Existe un consenso según el cual para que algo sea etiquetado como nano las dimensiones relevantes tienen que ser mayores que el átomo, pero lo suficientemen-te pequeñas como para que sus propiedades y comportamiento sean di-ferentes de lo macroscópico. En muchos aspectos, la naturaleza define sus propiedades a escala nanométrica. No es el átomo de hierro el que define su función; es el entorno nanométrico. “La hemoglobina es una máquina molecular”, así la definió quien reveló su estructura: Max Pe-rutz. Las propiedades del acero, su flexibilidad, su resistencia, se fijan en la escala nano, no en la atómica. Nano se refiere a los bloques más pequeños constituyentes de la materia que hacen que algo funcione de una determinada forma.Nanociencia y nanotecnología no son avances específicos surgidos de una disciplina determinada, sino una forma de aproximarse a la mate-ria que afecta a todas las áreas de la ciencia y la tecnología. La física, la biología, la química convergen en lo nano abriendo un abanico de infinitas posibilidades. Nanotecnología es, pues, mucho más que una nueva disciplina, es mucho más que una mera continuación de la mi-croelectrónica. La nanotecnología, o más propiamente las nanotecno-logías, abarcan todas las disciplinas desde medicina a ingeniería. El potencial de la nanotecnología es aparentemente infinito: se nos promete de todo desde lo más mundano, como superficies superhidro-fóbicas y autolimpiables, hasta lo más fantasioso, como submarinos diminutos recorriendo el torrente sanguíneo. Seguramente, los mayo-res impactos, como ha ocurrido otras veces, surgirán donde ni siquiera imaginamos. Todavía estamos lejos de ser capaces de crear nanocom-

Pedro Miguel Etxenike, presidente del

Donostia International Physics Center.

Edi

tori

al

Page 5: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

CONSEJO EDITORIAL

Eduardo AnituaPedro Miguel EtxenikeManuel FuentesFelix GoñiJoseba JauregizarManuel Martín LomasJosé María PitarkeAna Zubiaga

DIRECTOR

José M Mato

REDACCIÓN / COORDINACIÓN

Iñaki GorostidiGarazi AndonegiIgor CampilloEgoitz EtxebesteJavier Urtasun

COLABORAN

Juan UriagerekaFélix AresJose MaizSantiago FernándezJuan Modolell MainouJoan Rodés TeixidorMateo Valero CortésAndreu Mas-ColellJosé A. Pascual Rodríguez

DISEÑO Y MAQUETACIÓN

nu comunicación

REPORTAJES FOTOGRÁFICOS

Xabier Aramburu

EDITA

Arista RR.PP.Portuetxe 83, 1º · 20018 San Sebastián Tel.: 943 215177 · Fax: 943 215777 · [email protected]

EMPRESA COLABORADORA

Elhuyar Fundazioa

RESERVA PUBLICIDAD

[email protected]+34 943 32 69 66

IMPRIME

Reproducciones Igara S. Coop.

DEPÓSITO LEGAL

SS-1228/06

Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda

prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.

ponentes y agruparlos en nanosistemas en un determinado lugar para realizar una función específica. Existen, además, nubes en el horizonte. El impacto de lo nano en la salud y el medio ambiente debe ser abor-dado con intensidad, seriedad y rigor científico. No es bueno, además, presentar la nanotecnología como el remedio a todos los males. Exa-geraciones desmesuradas pueden provocar un efecto boomerang que perjudique a su propio desarrollo. Por ello, una información adecuada es una necesidad social. En CIC Network estamos convencidos de que una sociedad informada y formada científicamente es una sociedad

madura y preparada para afrontar los retos que el progreso científico y tecnológico nos plantea todos los días. Contribuir a ello es una de las misiones de los CIC.Sin falsos optimismos, creemos que el futuro de lo nano es brillante y colaboramos con entusiasmo en la apuesta estratégica de nuestro go-bierno con la creación de CIC nanoGUNE. El camino será largo y difícil. Necesitaremos avanzar en varios frentes (básico, aplicado, desarrollo, aplicaciones industriales...), compitiendo y colaborando con muchos otros laboratorios de todo el mundo, encontrando nuestro sitio para ser capaces de aportar algo diferente. Al hacerlo, estaremos contribu-yendo con nuestro pequeño tamaño a crear las condiciones para que la humanidad se beneficie del brillante abanico de las nanotecnologías, tanto como lo hizo de la microtecnología o de los imponentes avances de la ingeniería de lo grande hace ya más de un siglo.

“Nanociencia y nanotecnología no son avances específicos surgidos de una disciplina determinada, sino una forma de aproximarse a la materia que afecta a todas las áreas de la ciencia y la tecnología”

Page 6: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

6 CICNetwork

Foto

s: X

abie

r Ara

mbu

ru ·

Nue

stro

agr

adec

imie

nto

al c

entro

Kur

saal

.

Page 7: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

7CICNetwork

Heinrich Rohrer, premio Nobel de Física 1986, entrevistado por Igor Campillo

Heinrich Rohrer, físico suizo, nacido en Buchs en 1933.

Estudió y se doctoró en el Instituto Suizo de Tecnología,

en Zurich. Finalizado el trabajo postdoctoral —en el Swiss

Federal Institute y en la Universidad de Rutgers, en Estados

En 1986 recibió el Premio Nobel de Física por el diseño del microscopio de efecto túnel. Algunos opinan que fue un logro más tecnológico que científico. ¿Cómo ve usted la relación entre la cien-cia y la tecnología?Hoy en día no hay ciencia sin tecnología, y tampoco hay tecnología sin ciencia. ¿Cuánta tecnología? Eso depende. Si observamos los experimentos de física de altas energías, se ve que la mayoría de los recursos —financieros, mano de obra— se utilizan para construir sofisticadas configuraciones tecnológicas. Creo que ambas, tanto ciencia como tecnología, tienen tres partes distintas que mantienen un intercambio constante entre sí. En ciencia, la primera parte consiste en darse cuenta de la importancia de la pregunta y realizar la elección correcta.

concedernos una extensa entrevista en el Donostia International Physics Center. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE, habla con Heinrich Rohrer sobre las aplicaciones de su invento, sobre la nanotecnología y sobre su pasión por la ciencia.

“La ciencia es autocrática y no un proceso democrático”

Hace más de 25 años que el microscopio de efecto túnel (STM) fue creado. El prestigioso científico suizo Heinrich Rohrer, premio Nobel de Física en 1986 junto a Gerd Binnig por el diseño del STM, ha aceptado la invitación de CIC Network para visitar Euskadi y

Unidos—, ingresó en el Research Laboratory de Zurich (IBM),

en 1963, donde investigó, entre otros, los materiales Kondo

y los elementos magnéticos antes de centrar su atención en

la construcción (junto a Gerd Binnig) del primer microscopio

de efecto túnel. En 1981, ambos investigadores finalizaron

el primer diseño del microscopio de efecto túnel, por lo que

Rohrer y Binnig, junto con el alemán Ernst Ruska, creador

del primer microscopio electrónico en 1932, compartieron

en 1986 el premio Nobel de Física.

Igor Campillo, responsable de Proyectos y Comunicación de

CIC nanoGUNE

Page 8: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

8 CICNetwork

Nuestro conocimiento se está ampliando exponencialmente, y, por lo tanto, las preguntas también. Tenemos cada día más preguntas abiertas que responder y debemos realizar una selección. La segunda parte es la ejecución física, concebir un experimento específico. ¿Cómo nos gustaría resolverlo? Pasa lo mismo con las investigaciones teóricas, no hay diferencia. Esta es la parte central y la que más recursos consume. Y, por último, se necesitan conocimientos y capacidad de reflexión para comprender el significado y las consecuencias de lo que se ha medido, de lo que se ha calculado. Esa comprensión tiene varios componentes: es preciso comprender, en primer lugar, si realmente se ha medido lo que se quería medir, comprender la importancia de las mediciones, hay que estar abierto a las sorpresas (son la cuna de los descubrimientos) y, finalmente, es preciso mirar más allá de lo que se ha conseguido y buscar nuevos horizontes. Las sorpresas siempre suelen resultar algo molestas, porque no encajan en la imagen preconcebida que uno tiene sobre cómo deberían ser las cosas. Muchas veces existe la tentación de desechar datos o elementos que son molestos o que no encajan. Creo que ése es un gran error, porque se puede perder algo realmente importante. Igualmente, la tecnología consta también de tres partes: la primera parte es comprender y establecer la base científica. La segunda parte es diseñar un proceso, un componente o un sistema (ésta es otra vez la parte que más recursos consume) y la tercera parte consiste en conseguir que esa tecnología funcione para una línea de producción. Por lo tanto, es evidente que hay una estrecha relación entre la ciencia y la tecnología; algunas veces el componente primordial es el científico y, otras veces, el tecnológico.

Aunque puedo intuir su respuesta, ¿qué piensa sobre la distinción entre ciencia aplicada y ciencia básica?Ésa no es una distinción significativa. Tengo un amigo, Richard Ernst —premio Nobel de Química en 1991— que dice que no hay ciencia básica y ciencia aplicada, sólo hay ciencia buena y mala. La ciencia que no tiene aplicación alguna no sirve para nada.

No importa cuándo ni para qué se aplique, puede aplicarse en otro avance científico, en avances tecnológicos o, simplemente, en la construcción de cualquier aparato o artilugio. Yo prefiero el término investigación científica en vez de ciencia básica o aplicada. Para mí la investigación científica, al contrario que el desarrollo, abre nuevos horizontes. Responder a una pregunta científica clave abre la puerta a nuevos campos con nuevas posibilidades y nuevos horizontes. Es como subir una montaña. Cuando estás en la cima, has resuelto ese ‘problema’, pero un nuevo horizonte se abre ante ti con nuevas montañas, planicies y valles. Ésa es la característica principal de la investigación científica. Sin embargo, el desarrollo es diferente. Resolver el problema no te lleva más allá, excepto si se trata del desarrollo de algunas técnicas que pueden luego utilizarse en otras áreas. Pero, en principio, el prototipo o el producto suponen el final del proceso.

Por regla general, el ciudadano de a pie conoce los resultados científicos, pero suele saber poco acerca del pro-ceso científico en sí mismo. Permítame preguntarle sobre dicho proceso. ¿Puede resumir el proceso seguido hasta que diseñaron el microscopio de efecto tú-nel? ¿Cómo surgieron las ideas? ¿Cómo se sintieron cuando fracasaron en algún momento o cuando consiguieron lo que se proponían?Las novedades suceden de una manera más natural de lo que uno piensa. Por supuesto no caen del cielo como la lluvia, también hay que trabajar duro, concentrarse y tener la mente y los ojos abiertos ante lo que sucede. Muchas veces he oído que simplemente tuvimos suerte. No hay duda de que la tuvimos, pero la suerte no es algo malo, no darse cuenta sí lo sería. Las sensaciones de los científicos no son diferentes de las de los demás: sentimos satisfacción y felicidad cuando algo funciona, y decepción cuando no lo hace. La receta para el éxito es utilizar los errores en beneficio propio y aferrarse a las convicciones. En lo que se refiere al proceso de diseño de STM, permítame volver sobre la respuesta dada a la primera pregunta. Yo quería

Entrevista - Heinrich Rohrer

Page 9: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

9CICNetwork

hacer algo nuevo. Pensaba que ya había hecho mi contribución —en la medida de mis posibilidades— al campo de los fenómenos críticos, un tema candente en aquellos tiempos. La chispa que hizo que nos embarcáramos en una nueva línea de investigación fue el problema central de nuestros especialistas en tecnología que, en aquel momento, trabajaban en el llamado ordenador Josephson. El problema estaba relacionado con las no homogeneidades de las finísimas uniones (de unos pocos nanómetros) del túnel de Josephson. Los dramáticos efectos que tenían estas no homogeneidades en la corriente del túnel (un factor de 5 a 10 por cada monocapa de óxido) suponían un caso especial de interés general. En muchos casos estas no homogeneidades dominaban incluso el proceso de miniaturización tanto en ciencia como en tecnología. Esta fuerte dependencia de la corriente del túnel con respecto al grosor del óxido era un engorro para los técnicos, pero si se hacía bien, el efecto túnel podía valer como una prueba de extraordinaria sensibilidad

para las no homogeneidades de distintos tipos. Utilizando el vacío, el aire o un líquido no conductor se incrementaría esta sensibilidad local por mil. Por lo tanto, las estructuras nanométricas como las no homogeneidades de una superficie plana, se convirtieron en el modelo para un cabezal de efecto túnel y, consecuentemente, para el microscopio de efecto túnel (STM). Los cabezales más pequeños en aquella época eran cabezales especialmente preparados que se utilizaban en el microscopio de campo iónico (FIM). Necesitaban un ultra-alto vacío y tenían un radio de curvatura de unos 10 nm, dando como resultado una resolución de entre 2 y 3 nm. Ése era el rango de resolución para las estructuras, o incluso algo mejor, gracias al mejor microscopio electrónico de barrido de la época, pero el STM podía conseguir, además de una resolución similar, también información sobre las propiedades electrónicas. Y eso era lo suficientemente satisfactorio para nosotros como para poner en marcha la investigación.

No era la primera vez que se investi-gaba el efecto túnel...Ivar Giaver había analizado anteriormente, a finales de los años 50, en el trabajo que le valió el Premio Nobel, el efecto túnel mediante vacío, aunque no en la configuración del STM con un cabezal, pero lo descartó por considerarlo muy difícil y utilizó en su lugar una capa muy fina de óxido entre los dos electrodos metálicos. Este método se convirtió en un estándar para todos los trabajos sobre el efecto túnel que se realizaron posteriormente. Más tarde, después de la aparición del STM, algunos científicos dijeron que ellos también habían pensado en el efecto túnel en el vacío, pero que todos ellos lo descartaron pensando que no era posible. Y aunque parezca gracioso, se le pusieron objeciones al STM incluso después de que varias publicaciones lo dieran a conocer, y algunos de los argumentos utilizados incluso invocaban el principio de Heisenberg. Aunque nunca dudamos de que tendríamos éxito —de otro modo, ni siquiera habríamos empezado—, la primera y principal dificultad estaba en nuestras mentes: debíamos sobreponernos a la idea de que aquello tenía que ser algo muy difícil si nadie lo había hecho —ni siquiera intentado— hasta entonces, a pesar de que las perspectivas eran realmente excitantes. Éste suele ser uno de los mayores errores cuando te aventuras en un campo desconocido. El segundo error que cometimos fue elegir para ello el ultra-alto vacío y la temperatura del helio líquido. Los dos habíamos trabajado en el campo de la superconductividad y arrastrábamos el lastre de la espectroscopïa de efecto túnel. Con este segundo error perdimos más de un año. Pero también teníamos algunas cosas a nuestro favor. La más importante fue que Gerd Binnig, mi compañero, se dio cuenta de que un cabezal que no esté preparado de forma especial termina en un único átomo y, por lo tanto, reproduce una resolución atómica. Además, sucedía que esos átomos de las aristas estaban algunas veces en una posición estable el tiempo suficiente para realizar una imagen en un vacío moderado e incluso, como resultó más tarde, a temperatura ambiente y en líquidos.Ahora, los cabezales estables se producen de manera regular mediante varias técnicas.

Entrevista - Heinrich Rohrer

Pedro Miguel Etxenike y Heinrich Rohrer en el Donostia International Physics Center ante al microscopio de efecto túnel (STM).

Page 10: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

10 CICNetwork

con resolución atómica (Figura 2). Básicamente, el proceso consiste en realizar un barrido sobre la muestra a intensidad de corriente túnel constante. El sistema de control electrónico sube o baja la punta (o la muestra), de modo que sea capaz de medir la intensidad túnel prefijada, produciendo así una imagen fiel de la densidad electrónica de la superficie barrida y, por lo tanto, de la disposición geométrica de los átomos (topografía atómica). El microscopio de efecto túnel permite, además, manipular átomos individualmente para construir estructuras artificiales átomo a átomo (Figura 2b). Para poder realizar la manipulación atómica hay que ajustar convenientemente parámetros como el campo eléctrico, la corriente túnel y las fuerzas de van der Waals entre la punta y la muestra. Las fuerzas de van der Waals se pueden ajustar variando la separación punta-muestra. La manipulación puede realizarse lateral y verticalmente. En la manipulación lateral, el átomo es movido con la punta por la superficie hasta la posición deseada, sin perder contacto con aquella. En la manipulación vertical, el átomo se recoge con la punta y es movido hasta la posición deseada, donde se vuelve a soltar. I. Campillo.

Microscopio de efecto túnel El microscopio de efecto túnel (STM, del inglés Scanning Tunneling Microscope) es un instrumento no óptico que se sirve de los principios de la mecánica cuántica para “ver” superficies, es decir, para obtener información relativa a su estructura (Figura 1). Una punta metálica afilada con un radio de unos pocos nanómetros (terminada en un átomo) se mueve sobre la superficie del material a estudiar. Se aplica entre la punta y la superficie, de manera que los electrones saltan por efecto túnel de la punta a la superficie (o de la superficie a la punta, dependiendo de la polaridad), lo que da lugar a una corriente eléctrica débil, cuyo valor depende exponencialmente de la distancia entre la punta y la muestra. Esta dependencia exponencial es, precisamente, la que permite registrar cambios de hasta 0,05 nm en la distancia punta-muestra. La toma de medidas y los movimientos de la punta se realizan mediante un dispositivo piezoeléctrico y son controlados por el usuario a través de las interfases correspondientes (por ejemplo, mediante un PC de sobremesa). En principio, para que se establezca una corriente túnel, la muestra ha de ser metálica o semiconductora.El microscopio túnel de barrido ofrece imágenes de superficies

Efecto túnel cuántico

Figura 2: (a) Formación de imagen con resolución atómica (b) Manipulación atómica

Figura 1: Esquema de funcionamiento de un microscopio de barrido de túnel

Entrevista - Heinrich Rohrer

�������

����

������

����

�����

��������

����

��

������������� �����������������������������������������

�������������������������������������

�������������������������������������

������������������������������

�����

���������

�����

���������

� �

Page 11: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

11CICNetwork

La segunda cuestión estaba relacionada con la interrupción de la fuerza piezoeléctrica en los platos piezocerámicos comerciales. Sorprendentemente, respondían suavemente a la aplicación de un voltaje por debajo del rango de los 10 pm. Y en tercer lugar, desde el momento en que no podíamos operar en ultra-alto vacío y en temperaturas de helio líquido, decidimos suprimir todo el montaje cuidadosamente preparado en una cámara de ultra-alto vacío y utilizar, en su lugar, un desecador en un vacío moderado. A pesar de que el ruido era mucho mayor que el ruido ambiente o el que se produce en UHV, tuvimos éxito. Los primeros materiales y estructuras fueron simples y las interpretaciones de las mediciones directas.

Por lo tanto, ¿cuánto tiempo duró el proceso?Fueron alrededor de dos años y medio. Pero de esos dos años y medio creo que casi dos años los pasamos construyendo este sofisticado equipo de ultra-alto vacío y temperatura de helio líquido. Una vez que conseguimos resolver eso, el resto fue bastante rápido.

Está claro que hay prejuicios e interpretaciones erróneas que pueden jugar un papel importante en el proceso científico. Sí, los prejuicios y también las presiones. Y si eres un experto, tu mayor problema siempre es que intentan presionarte. No ser un experto no te garantiza el éxito, pero serlo demasiado supone un auténtico obstáculo. Por lo tanto, es preciso conservar un poco de frescura.

Las nuevas ideas surgen de los jóvenes. Basta con echar un vistazo a los premios Nobel, se ve claramente el trabajo que se ha hecho a una edad temprana. Es ahí cuando te mantienes ‘fresco’, porque eres joven y tu mente no está aún influenciada por la especialización. Y el segundo caso en que mantienes esa frescura es cuando cambias de campo de investigación; ése fue mi caso. Me pasé a otro campo y, por lo tanto, mi cerebro estaba libre de toda influencia.

Volviendo a 1981, ¿qué sintió cuando una revista puntera en el campo de la fí-sica rechazó publicar su primer artículo?Estábamos realmente convencidos de que habíamos hecho un trabajo muy bueno y de que era una auténtica novedad. Por lo tanto, el rechazo no nos derrumbó. Supongo que luego, cuando el STM salió realmente a la palestra, los evaluadores del trabajo no se sintieron muy orgullosos. Uno de los evaluadores dijo: “Es sabido que la corriente del túnel depende exponencialmente del vacío del túnel”. No se dio cuenta de que el comportamiento exponencial no se derivaba de una configuración de túnel de tipo metal-óxido-metal, sino de una configuración de túnel específica con un espacio ajustable que suponía un tipo de instrumentación completamente nueva.

El otro evaluador dijo: “Es fantástico! Pero es una aproximación instrumental, por lo que se trata de una decisión de política editorial si quieren publicar algo así o no”. Pensó que era extraordinario, pero no tuvo agallas para defenderlo y decir: “Aunque se trate de algo técnico, puede ser algo maravilloso”. Supongo que el primer evaluador sería un peso pesado en la materia; por lo tanto, rechazaron nuestra propuesta.

Siguiendo con este tema, ¿cómo ve usted el proceso de publicación de los artículos científicos? ¿Piensa que hay alternativas razonables y realizables al proceso de peer review o evaluación por pares?Creo que es el único proceso razonable —haciendo un símil con lo que dijo Churchill: “la democracia es el menos malo de los sistemas que tenemos”—. Los evaluadores actúan como unos filtros que detienen la basura y garantizan un determinado nivel científico. Sus críticas y sugerencias pueden ser de gran valor para el autor. Al leer el informe del evaluador, uno se da cuenta enseguida si ha entendido o no el artículo y si lo ha tomado en serio, y también si trata de ayudarte o no. Desgraciadamente, algunos evaluadores demuestran más arrogancia que inteligencia. Aunque parezca increíble, la arrogancia es uno de los mayores problemas en el elevado mundo académico de los científicos. Una buena razón que justifica la existencia del sistema de evaluación previa es que los trabajos científicos se juzgan a nivel mundial y no sólo local, tanto para su posterior publicación como para cualquier tipo de selección (por ejemplo,

Entrevista - Heinrich Rohrer

“Una buena razón que justifica la existencia del sistema de evaluación previa es que los trabajos científicos se juzgan a nivel mundial y no sólo local”

Manipulación atómica con STM. (Fuente IBM)

Page 12: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

12 CICNetwork

para conseguir algo realmente extraordinario. También vimos la posibilidad de manipular y modificar la materia en la escala de la resolución conseguida. Pero no previmos la enorme cantidad de aplicaciones posibles, en particular, de toda la gama de técnicas de proximidad posibles, cuyo representante más destacado es el microscopio de fuerza atómica (AFM). Tampoco adivinamos su rápida difusión, sobre todo teniendo en cuenta que incluso dos años después de que empezara a funcionar eran aún muy pocos los científicos que lo utilizaban. Pero esa situación cambió tras los resultados de la estructura del Si(111) 7x7, un problema y un misterio que la ciencia de superficies llevaba muchos años sin poder resolver. La primera conferencia internacional sobre el STM, celebrada en Santiago de Compostela en el verano de 1986, unos meses antes de que se anunciara el Premio Nobel, congregó a alrededor de 200 personas. Yo pienso

selección de propuestas científicas, reconocimientos, premios, etc). Eso convierte a la ciencia en una ‘empresa’ internacional, la más antigua de este tipo.

El STM ha inspirado unos 14.000 trabajos hasta ahora y hay unas 500 patentes relacionadas con varias formas de SPM (Scanning Probe Microscope). ¿Tuvo claro desde el principio la im-portancia real de sus investigaciones y descubrimientos?Sabíamos que si teníamos éxito sería algo especial. Como he dicho antes, al principio, esperábamos alcanzar resoluciones de unos pocos nanómetros en propiedades estructurales y electrónicas. Pero la resolución atómica está intrínsecamente ligada a la aproximación por efecto túnel, si los cabezales son tan afilados como un átomo. Cuando conseguimos eso, fuimos conscientes de que estábamos en el camino adecuado

que los científicos constituyen un grupo en general conservador, que cuenta con un montón de chaqueteros entre sus filas. Incluso, algunos años más tarde, un miembro del comité de los premios Nobel me escribió algo así: “Estamos orgullosos de haber reconocido tan pronto la importancia del STM”. En pocas palabras: si algo finalmente consigue la aprobación de la opinión pública y no excede demasiado las expectativas creadas, entonces, ocurre como en la bolsa de valores bursátiles; los valores apenas suben, a veces incluso bajan.

¿Puede alguien ser consciente del impacto de un descubrimiento o de una nueva teoría o modelo en el momento de su lanzamiento?Difícilmente. Por ejemplo, nadie sabía el impacto que iban a tener los transistores. Pasaron más de 16 años hasta que la mitad de los tubos de radio fueron reemplazados por transistores. Nadie pensó en la telefonía móvil, los ordenadores, los iPod, la comunicación por satélite y en tantas otras cosas 10 años antes de que aparecieran. Nadie pensó que la electrónica, en forma de microelectrónica, llegaría a todos los rincones, ni que produciríamos alrededor de 1018 transistores al año, es decir, cerca de un millón por persona y día. Si hubiéramos previsto todo esto, habríamos sido profetas o, en caso contrario, no habría sido tan importante.

Le dieron el Premio Nobel muy poco tiempo después de su descubrimiento. Su discurso en los premios se titulaba ”Scanning tunnelling microscope, from birth to adolescence”. 20 años después, ¿se puede afirmar que el STM ha alcanza-do la madurez?Yo diría que sí. Tiene una amplia difusión en el mercado, lo utilizan muchísimas personas, todavía se puede mejorar y siempre surgirán nuevas aplicaciones. Pero lo que ha conseguido la madurez de forma más clara es la noción de que es posible posicionar objetos en el espacio, incluso objetos muy pequeños, con una precisión de 10 picómetros. En mi opinión, ése es el punto clave, dado que permite pensar qué se puede hacer exactamente con un nivel de posicionamiento tan preciso.

Entrevista - Heinrich Rohrer

Imagen lograda gracias al STM de una molécula de 8 átomos de cesio y 8 átomos de yodo. Fuente: IBM.

Page 13: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

13CICNetwork

El descubrimiento del STM hace 25 años, seguido de la llegada del AFM 5 años después, son eventos cruciales en la historia de la nanociencia y de la nanotecnología. En realidad, siempre se menciona el STM cuando se habla de ellas. En su opinión, ¿qué otros sucesos cruciales hay detrás del avance de la nanotecnología?Para mí el factor crucial es que la idea ha sido aceptada por mucha gente. La idea ha generado un gran entusiasmo entre muchos científicos. El entusiasmo y el compromiso de todos los científicos con la escala del nanómetro, el avance en los métodos computacionales como una herramienta teórica básica y la percepción —aunque a veces tímida— de que en ciencia, tecnología, industria y economía a gran escala tenía que llegar una nueva era una vez superada la microtecnología, son factores muy importantes. Y, por último, aunque no por ello menos importante, no hay que olvidar las expectativas justificadas y la esperanza de que el impacto de la nanotecnología no será menor que el de la microtecnología. Cada avance científico exige la colaboración de diferentes tipos de cerebros con diferentes ideas para ir siempre más allá. La invención o el descubrimiento mismo es una parte, pero dicho descubrimiento no es realmente importante si otros muchos científicos no lo hacen suyo y lo impulsan con nuevas ideas.

La nanotecnología puede significar distintas cosas para la gente. ¿Qué es exactamente la nanotecnología para usted?Es difícil dar una definición que no sea ambigua, y tampoco sería muy útil. Yo tengo probablemente una visión un poco sesgada. Para mí, son tres los aspectos que reflejan mi comprensión y, sobre todo, mi predilección por el campo de lo nano. El primero de ellos es la capacidad de direccionamiento para el control individual y la modificación de estructuras, propiedades y funciones en la escala nanométrica, incluyendo su síntesis hasta formar estructuras de dimensiones micro o macroscópicas. La nanoelectrónica, los nanosensores y los actuadores son claros ejemplos. El segundo aspecto es la preparación y el

procesamiento de materiales específicos con nanodetalles específicas. Un ejemplo que considero muy interesante es la nanoresistencia o nanoaspereza, a través de la cual se repele el agua. La naturaleza utiliza este efecto en el llamado efecto loto. El agua no se repele si la superficie es totalmente plana, ni tampoco si la superficie es microáspera. Tiene que ser nanoáspera. Esto tiene que ver con la tensión de la superficie; una gota de agua no puede adaptarse a las rápidas variaciones del radio de curvatura debidas a la nanoaspereza.

Y, por último, el tercer aspecto es la capacidad de crear nanoestructuras en un lugar determinado y con una función precisa. En ciencia de materiales, se habla mucho de autoensamblado, y tenemos fotografías espectaculares de estructuras autoensambladas de superficies. Eso está muy bien, pero yo creo que la clave en nanomateriales es construir una determinada estructura, en un lugar determinado y para una función específica. Esto será muy difícil de conseguir, y es, desde mi punto de vista, el gran reto en la ciencia de los nanomateriales. Tomemos como ejemplo los nanotubos. Se dice a menudo que los nanotubos

de carbono sustituirán a los cables de los circuitos electrónicos. Sin embargo, no sería lógico utilizar nanotubos si no se pueden construir de un punto A a un punto B, o si no es posible realizar una red de nanotubos y crear algunos componentes activos en los nodos de esa red, como la red neuronal del cerebro.

A lo largo del proceso evolutivo de los organismos vivos, se han desarrolla-do algunas capacidades, tales como la síntesis química, la transformación efi-ciente de energía, la detección, la acción autónoma, las emisiones de señales y el procesamiento de la información. Como mencionó Tom Knight, investigador principal en el Laboratorio de Inteligen-cia Artificial del MIT, “la biología es la nanotecnología que funciona”. ¿Está de acuerdo con esa afirmación?Creo que es una afirmación trivial y no muy útil. Creo que todos sabemos que la naturaleza funciona a escala nanométrica. “La nanotecnología gobierna la naturaleza”, o “la naturaleza gobierna la nanotecnología”, como prefiera. La naturaleza —no la biología— es la nanotecnología que funciona. Gran parte de la nanotecnología está inspirada en las estrategias y en los procesos que utiliza la naturaleza. Pero la naturaleza tiene miles de millones de años. La simbiosis entre los procesos electrónicos, eléctricos, mecánicos y químicos será el reto principal de la nanociencia y de la nanotecnología. Entender los

Entrevista - Heinrich Rohrer

“Un descubrimiento no es realmente importante si otros muchos científicos no lo hacen suyo y lo impulsan con nuevas ideas”

Page 14: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

14 CICNetwork

se convierten en comparables o mayores que las dimensiones relevantes de los nano objetos. La espintrónica —el transporte selectivo de electrones dependiendo de su espín— puede ser una alternativa válida o un complemento al transporte ordinario en la conducción electrónica. La escala nano está en la transición del comportamiento de la materia condensada al mundo atómico o molecular o, en otras palabras, en la transición entre la física clásica y la mecánica cuántica. Esta transición es realmente interesante, pero, a su vez, muy difícil de tratar. Sabemos cómo tratar teóricamente el estado sólido y también los átomos y las moléculas, pero es mucho más difícil tratar lo que está entre ellos. En la actualidad los métodos computacionales parecen ser la herramienta teórica adecuada. Otro punto se refiere al nacimiento de la nanomecánica, entendiendo ésta como el movimiento de núcleos atómicos y la

deformación de su ordenamiento. En realidad, la mecánica, la electricidad, la electrónica y los procesos químicos no se pueden separar en la escala nano. Eso es muy diferente de lo que ocurre en la escala micro y macro y la razón fundamental que explica el carácter interdisciplinar de la nanociencia y de la nanotecnología. La nanomecánica muestra muchos aspectos atractivos, entre los que destacan la velocidad y la sensibilidad. Las frecuencias mecánicas se incrementan en d-1 y la sensibilidad de masa en un sistema mecánico en vibración en d4, donde d es el tamaño del sistema. Los tiempos de difusión se incrementan en d2. Finalmente, en la escala nano podemos y debemos utilizar nuevos conceptos, conceptos inspirados en la naturaleza, no copiados de ella. En la naturaleza todo surge en la escala nanométrica y es sintetizado hasta formas, movimientos, propiedades y procesos microscópicos o macroscópicos.

Un bailaor de flamenco es una bonita nanocomposición. ¡Qué diferencia con los micro y macro robots, tan patosos!Uno de los nuevos conceptos que utilizaremos será el contar en vez de medir, por ejemplo, contar los átomos de uno en uno en vez de medir un flujo de ellos. Otro concepto será medir algo débil utilizando para ello algo débil. En la naturaleza, un grupo específico de moléculas se reconoce mediante un detector específico; proceso al que se denomina reconocimiento molecular. En la actualidad, se prevé la construcción de sensores mecánicos con una sensibilidad de un zeptomol (10-21). Pero incluso en los experimentos sencillos de STM, el átomo del extremo del cabezal del STM es capaz de detectar un átomo del objeto que se esté investigando.

Ésas son, por lo tanto, las diferencias entre el mundo de la escala micro y el de la escala nano. Ésas y muchas más. El mundo de lo micro no es muy diferente del de lo macro. Nunca ha habido un concepto de la ‘microciencia’, lo que ha habido siempre es simplemente microtecnología. Pero en lo nano, se habla de nanociencia y de nanotecnología, y creo que eso mismo constituye ya una diferencia interesante. Todos los componentes de un circuito electrónico, como los transistores, las resistencias, las capacidades o las líneas de conexión, podían reducirse significativamente en escala desde lo macro a lo micro y a lo nano (en lo que a los transistores se refiere, pensamos en la miniaturización hasta los 50 nm). Los componentes eran cada vez más pequeños, pero no cambiaban su función. Ésa fue una de las razones fundamentales del tremendo éxito de la microelectrónica. Pero el mundo atómico y molecular no se pueden reducir en escala y en tamaño, y las funciones son diferentes para cada tipo molecular. El mundo de la nanotecnología es exigente y es discreto; por lo tanto, rara vez se puede reducir en escala.

Aún así, hay gente intentando en-contrar leyes escalables desde la escala nano a la micro y a la macro; se les deno-mina leyes de escala.

sistemas biológicos es ya suficientemente difícil; construir sistemas de semejante complejidad e incluso mucho más sencillos a partir de componentes creados por el ser humano, supone ir un paso más allá.

En efecto, decimos a menudo que la naturaleza resulta inspiradora para manipular la materia al nivel más básico. ¿Quizás esa manipulación nos hace sen-tir que somos Dios?No. Dios entra a formar parte del juego cuando se crean los átomos o las leyes básicas de la física, no cuando simplemente se manipulan o se modifican pequeñas estructuras. Incluso aquí se puede preguntar uno: ¿es la naturaleza tal como es por las leyes básicas de la física? O también: ¿son las leyes básicas de la física tal y como son a fin de crear la naturaleza tal y como es? A través de esas preguntas se puede uno acercar al concepto del creador. Tomemos, por ejemplo, el Big Bang. Para nosotros el Big Bang es el sustituto de algo que no sabemos y lo que sabemos hoy día es compatible con la imagen del Big Bang. Pero alguien ha tenido que crear de antemano el vacío en el que las fluctuaciones cuánticas han originado el Big Bang. Podemos retroceder desde el presente hasta el Big Bang, pero a partir del Big Bang no podemos ir más atrás en el tiempo.

¿Cuáles son, en su opinión, los pasos que debemos dar, los retos a los que de-bemos enfrentarnos, las cuestiones que es preciso abordar para conseguir que la nanotecnología funcione? En definitiva, ¿cómo podemos conseguir que lo nano sea realmente diferente?Explotando el área de lo nano que es diferente de lo micro y de lo macro. Los materiales muestran propiedades diferentes (la nanoaspereza mencionada anteriormente es un ejemplo). En otros casos se trata de nuevas propiedades: por ejemplo, clusters donde el número de átomos de superficie es comparable a los átomos de la masa o cuando el número de átomos finales es comparable al de los átomos de superficie. Aparecen nuevos sistemas para la conductividad electrónica cuando el camino libre promedio o la longitud de onda del electrón, o ambos,

“La simbiosis entre los procesos electrónicos, eléctricos, mecánicos y químicos será el principal reto de la nanociencia y de la nanotecnología”

Entrevista - Heinrich Rohrer

Page 15: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

15CICNetwork

Existen las leyes de reducción de la microelectrónica que solamente se pueden aplicar teniendo en cuenta el tamaño de los componentes; por ejemplo, los transistores pueden reducirse a escala nanométrica. Como he mencionado antes, el límite para ello es 50 nm.

Parece evidente que la nanotecnología tiene un enorme potencial y que ayudará a conseguir enormes ventajas. Pero hay nanoescépticos que señalan que no debe-rían cegarnos las nanopromesas: ¿puede haber costes imprevistos? ¿Serán los beneficios los que realmente deseamos?Esta afirmación de los nanoescépticos no nos ayuda en nada. Todo el mundo puede hablar de posibles ‘imprevistos’ y de si realmente es lo que ‘deseamos’, si uno desconoce lo que realmente puede hacer y lo que puede necesitar algún día. Cuando nos aventuramos en lo que deseamos, puesto que se trata de un territorio inseguro, las decisiones deben tomarse paso a paso. Si no, nunca nos atreveríamos a acercarnos a algo nuevo, y mucho menos a hacerlo.

¿Cómo podríamos equilibrar las ventajas potenciales y las posibles desventajas?Solamente cuando tengamos una clara noción de ambas, tanto de las ventajas como de las desventajas.

¿Piensa que los ciudadanos, en gene-ral, están bien informados sobre ciencia

y tecnología? ¿Deberían participar los ciudadanos en las decisiones sobre el camino que debe seguir en el futuro la tecnología y, en particular, la nanotecno-logía?Algunas personas pueden estar informadas sobre los avances científicos que se publican, pero, en general, parece que no es algo que preocupe demasiado a los ciudadanos, excepto si se trata de posibles amenazas. El proceso de transmisión de información puede y debe mejorarse, pero con sumo cuidado y no dando una información engañosa. De todos modos,

lo que los ciudadanos deberían entender mucho mejor es que la ciencia es autocrática —más incluso que los negocios— y no un campo democrático. Las ideas nuevas surgen de mentes específicas y no a partir de un sistema de votos, y esas ideas las implementan quienes se atreven a hacerlo. La ciencia como tal no tiene nada que ver con los valores —exceptuando por supuesto los valores científicos—, pero la explotación de los resultados científicos, sí. Y es aquí donde debería intervenir la democracia: los hábitos y las decisiones de compra de los ciudadanos son la gran

fuerza que tienen en su mano. Lo que no se compra, no se hace. Se trata, por supuesto, de una especie de democracia implícita, ya que no se pregunta de antemano a los ciudadanos qué se debería producir, ya sean armas o comida. Pero de todos modos, tampoco parece que a la gente le importe demasiado eso, ya que no se opone seriamente a los gobiernos que, por ejemplo, afirman que las armas nucleares son necesarias o a los que no toman medidas serias contra el calentamiento global. Los ciudadanos, en cuanto consumidores, deben tomarse en serio su responsabilidad, pero no son ellos los que deben decidir qué camino debe seguir la ciencia.

Por lo tanto, el problema está en el desarrollo y la implementación, no en la ciencia misma. El problema surge cuando se utiliza la ciencia para un objetivo determinado. Muchas veces la ciencia puede utilizarse para hacer ciencia, pero eso no supone un problema. Sin embargo, una vez que se sale del círculo científico y se utiliza la ciencia para un fin, un producto o un proceso determinado, es ahí donde los ciudadanos deben intervenir y tomar una decisión. Otra cuestión distinta es si esas decisiones se toman de un modo democrático o no. Las decisiones en ciencia nunca se pueden tomar de una manera democrática, es preciso tomarlas basándose en juicios objetivos sobre la novedad científica o sobre el avance que supondrían.

Entrevista - Heinrich Rohrer

“El mundo de lo micro no es muy diferente del de lo macro. Nunca ha habido un concepto de la ‘microciencia’, lo que ha habido siempre es simplemente microtecnología”

Page 16: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

16 CICNetwork

Ha desarrollado gran parte de su carrera científica en una compañía pri-vada, en IBM. ¿Se ha sentido alguna vez presionado por los intereses particulares de la compañía?Puedo contarle cómo era en aquellos tiempos —quizás haya cambiado un poco desde entonces—, pero yo nunca me sentí presionado. Pude hacer lo que quise, pude publicar nuestras investigaciones en la publicación que consideraba más adecuada. Por supuesto, los resultados científicos que debían publicarse tuvieron que pasar por los filtros de la propiedad intelectual, pero eso no cambió nada para nosotros, nunca entorpeció nuestro trabajo. En aquella época el lema central para las investigaciones de IBM era hacer “ciencia de primera clase y/o vital para IBM”. En la actualidad creo que el lema es, más bien, “investigar lo que sea vital para el futuro de IBM”. En general, la investigación libre de las grandes compañías ha desaparecido. ¿Quién puede llenar ese vacío? ¿Quién sino las universidades y las instituciones de investigación públicas como el CSIC en España? Lo paradójico es que, en lugar de eso, se presiona a estas instituciones para que realicen una cantidad cada vez mayor de trabajo de desarrollo industrial. Considero eso una interpretación errónea y peligrosa de la verdadera función de las universidades y de muchas instituciones públicas dedicadas a la investigación:hacer avanzar la ciencia en beneficio de los seres humanos, y formar y capacitar científicos que aporten sus conocimientos y su experiencia a la industria.

Es evidente que un científico debe ser productivo. Hoy, los científicos de todo el mundo están más presionados que nunca para conseguir diversos tipos de indicadores como, por ejemplo, publicar el mayor número posible de investigacio-nes en publicaciones prestigiosas, dirigir y liderar proyectos, conseguir patentes, tener incluso un espíritu empresarial.Parece que la imagen romántica del científico dedicándose únicamente a la ciencia ya no sirve. Aún así, dedicarse a la ciencia simplemente porque uno disfruta con ello ha resultado ser muy productivo a lo largo de la historia. Su

historia personal es un ejemplo de ello. ¿Cree que es posible todavía dedicarse a la investigación científica con una cierta pasión ingenua, sencillamente porque uno disfruta con ello?Creo que los propios científicos son responsables de una gran parte del trabajo administrativo. ¡Es increíble la cantidad de fricciones internas que pueden producir los científicos!El atractivo de trabajar en la investigación en un entorno empresarial es poder evitar una gran parte de toda esa fricción interna. Esto funciona bastante bien si la compañía no es demasiado grande. Pero cuando la compañía es muy grande, la fricción interna también crece muy rápido. Una vez vi, hace unos 30 años, un estudio del número de patentes en relación con el tamaño de las compañías, tomando como muestra un rango razonable de compañías de diverso tamaño. El número de patentes crecía solamente en relación a la raíz cuadrada con respecto al tamaño de la compañía. Muy interesante, ¿no? ¡Se pierde un montón de energía en las fricciones internas!Creo que los elementos clave en ciencia siguen siendo los mismos: la curiosidad, la fascinación, la pasión y la devoción son todavía las mayores fuerzas motoras de un científico. Éste sigue disfrutando de la envidiable situación de hacer de su hobby su profesión. En realidad, los artistas también. Desgraciadamente, hemos introducido algunas prácticas no científicas en su trabajo. La competencia es una de ellas, si bien lo ‘mejor’ no implica siempre algo ‘bueno’. La vara de medir para valorar el resultado científico deben ser los estándares, no las clasificaciones; la capacidad y las ideas de uno, no las opiniones de los demás. La ciencia es un asunto demasiado serio para convertirla en una carrera. Otra de las prácticas no científicas que se han colado es la utilización de promesas en lugar de razonamientos científicos sólidos y hechos objetivos. En primer lugar deberíamos preguntarnos siempre: ¿qué cambiaría si esto pudiera hacerse? Solamente entonces podemos empezar a hablar de recursos, planes de investigación y todo lo demás. Los indicadores de los logros científicos son realmente necesarios y valiosos, siempre que se analicen cuidadosamente.

Entrevista - Heinrich Rohrer

Page 17: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

el material de laboratorio en cuanto lo necesite

» Instrumentación analítica WATERS: UPLC, HPLC, HPLC-MS, GC-MS, MS-Alta Resolución,

Aplicaciones Clínicas, Seguridad Alimentaria,

Industria Farmacéutica

» Instrumentación Auxiliar

» Reactivos y productos químicos

» Material de vidrio y plástico

» Mobiliario de laboratorio

» Reparaciones

SUMINISTRO URGENTE AL LABORATORIO

Polígono Industrial Aurrera - Módulo 36 · Ctra. Baracaldo a Trápaga- Aptdo. 11 · Tél. 94 472 17 45 · Fax 94 472 11 26 · 48510 Trapaga Vizcaya · [email protected]

94 472 17 45

Page 18: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

18 CICNetwork

muestran perfiles normales en esos sentidos. El síndrome se transmite como carácter autosómico dominante.Simon Fisher y Cecilia Lai, del laboratorio de Anthony Monaco en Cambridge, siguieron la pista del hipotético gen (cuya existencia hacía suponer lo arriba mencionado) hasta una región del cromosoma 7. En ello estaban, cuando un individuo no emparentado con los KE fue lle-vado al laboratorio con una variante del TEL-g. Sus problemas estaban asociados a una translocación relacionada con el cromosoma 7, y la región afectada era cercana al intervalo identificado en los KE. Así se identificó el gen FOXP2, en 2001. Aunque FOXP2 no sea “el gen del lenguaje” (no existe tal cosa), clara-mente está implicado en la facultad que lo genera, como lo está en la especialización celular y la formación de patrones durante el desarro-llo de algunas zonas del cerebro, el corazón, los pulmones y el aparato digestivo. Por otra parte, en el caso del lenguaje se sabe ya que hay genes implicados al menos en los cromosomas 13, 16, 19 y, posible-mente, en el 2. FOXP2 (forkhead box P2) expresa una proteína implicada en la tras-

¿Un gen del lenguaje? Algunas variantes del trastorno (gramatical) específico del lenguaje (TEL-g) tienen una base genética. La mitad de los miembros de la fami-lia KE presentan este síndrome: problemas oro-faciales que afectan al habla y la repetición de unidades fonéticas no-léxicas (pseudo-palabras como “reticuajo”); dificultades con la producción de morfemas como plurales o marcas de tiempo verbal; límites en la comprensión de ora-ciones de relativo o de similar complejidad; y dificultades motrices de tipo rítmico, si bien los individuos afectados no tienen problemas con movimientos no secuenciales. Varios tests de inteligencia y audición

Juan Uriagereka, catedrático de la Universidad de Maryland,

doctor en Lingüística por la Universidad de Connecticut y licenciado

por la Universidad de Deusto; autor de varios libros (entre otros,

Pies y Cabeza, Visor, 2005) y artículos técnicos sobre biolingüística;

director de veinte tesis doctorales en diferentes universidades, y

conferenciante habitual en Estados Unidos, Europa y Asia.

Recibió el Premio Euskadi de Investigación en 2001.

Que se pueda aprender sobre genética humana analizando una mosca ha sido una gran lección de la biología molecular. Esta sorprendente realidad, sin embargo, no parecía aplicable a algo tan exclusivamente humano como el lenguaje. Pero hasta esa barrera ha caído.

Chimpancé + Jilguero = ¿Humano? Sobre la evolución de la facultad del lenguajeJuan Uriagereka, catedrático de la Universidad de Maryland

Div

ulg

ació

n

Page 19: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

19CICNetwork

cripción o regulación genética. En los KE afectados se identificó un único intercambio de bases en el exón 14 con respecto al caso normal, que altera el gen en la región que controla su ligamiento al DNA. Esta es invariante en todos los genes FOX en diferentes especies, que apare-cen hasta en las moscas. La mutación observada afecta las propiedades de trascripción de FOXP2 —quizás en su relación con la de los otros FOXP—, lo cual no sería sorprendente en esta familia de genes: otras mutaciones se correlacionan con el glaucoma congénito y deficiencias inmunológicas.En un estudio posterior, el mencionado grupo analizó cómo el gen se activa durante la embriogénesis temprana del ratón y el ser humano. El gen no está expresado por todo el cerebro (por ejemplo, el hipocam-po no tiene actividad de FOXP2 detectable). En los análisis de tejido cerebral in vitro no se hallaron diferencias entre ser humano y ratón. Deberían apreciarse en el desarrollo posterior del feto humano, pero con las técnicas actuales esto no es observable. Por otra parte, no se encontró discordancia entre las regiones de expresión temprana (estu-diadas en fetos) de FOXP2 y zonas posteriores (estudiadas en adultos, in vivo) donde se presume que se manifiestan patologías severas del lenguaje. En cualquier caso, FOXP2 cumple un rol en el desarrollo del cerebelo, olivas inferiores, tálamo y ganglios basales frontales, todos los cuales se encuentran interrelacionados e implicados, por lo menos, en el sistema motriz.

Evolución de FOXP2 y del lenguaje El laboratorio de Svente Pääbo en Leipzig secuenció las series com-plementarias de DNA que codifican la proteína de FOXP2 en chimpan-cés, otros simios, monos y ratones, comparándolas con el fragmento correspondiente de DNA en humanos. Al mismo tiempo se investigó la variación intraespecífica en la versión humana del gen, sin encon-trar diferencias en individuos de múltiples razas. Sorprendentemente, pues, en un gen tan grande (más de 600.000 bases), la versión humana parece universal en nuestra especie. Igualmente curioso es el hecho de que la proteína que FOXP2 expresa difiera sólo en tres posiciones de la ortóloga en el ratón (de cuyo linaje evolucionario nos separamos hace setenta millones de años), lo que demuestra una gran conservación de estructura.Por otra parte, la versión de la proteína en el chimpancé muestra una sola diferencia con respecto a la del ratón, y dos (en el exón 7 de FOXP2) con respecto al humano. Dicho de otro modo: en los casi seis millones de años que separan nuestra historia evolutiva de la del chim-pancé, se han dado, en nuestro linaje, dos de los tres cambios mencio-nados para los otros setenta millones de años de evolución. Al menos uno de esos dos cambios con respecto a los chimpancés podría ser lo que hace que la proteína se comporte de modo diferente, y relacionado en algún sentido con el lenguaje, en las células humanas. El mismo grupo, liderado por Wolfgang Enard, planteó un modelo ra-zonable de cuándo se pudo haber dado la mutación humana en FOXP2, y concluyeron, con una certeza del 95%, que tuvo que haber sucedido durante los últimos 120.000 años. Entonces, si, como sugieren los datos de la familia KE, FOXP2 es una piedra angular en la arquitectura de la facultad del lenguaje y no mutó a su forma actual en humanos hasta cuando se nos dice, el protolenguaje que probablemente usaban los neandertales debía de ser significativamente diferente del nuestro.

FoxP2 en pájaros cantores [aves canoras]El laboratorio de Stephanie White en UCLA mostró cómo un linaje separado de nosotros por trescientos millones de años de evolución —los pájaros cantores [las aves canoras]— presenta una variante del gen FoxP2 (por convención, en minúscula) con dos características de interés. En primer lugar, el gran nivel de conservación: sólo ocho bases difieren en la región que codifica la proteína (similitud de más del 98%). Segundo, el gen aparece expresado en los dos circuitos cerebrales que determinan las propiedades de adquisición y producción del canto en los pájaros.El caso más estudiado es el de los jilgueros mandarines –para ser más exactos diamantes mandarines (Taeniopygia guttata)–, que poseen un centro vocal bien identificado en sus cerebros: el high vocal center, o HVc, que está más desarrollado en los mejores cantores. El canto es parcialmente innato y parcialmente adquirido. Si se le aísla dentro de un período crítico posterior al nacimiento, el polluelo desarrolla sólo una versión empobrecida de su canto. El paralelismo con el lenguaje es obvio. Al igual que en los humanos, la canción de los mandarines presenta variantes dialectales, lo que les confiere la posibilidad de de-sarrollar estructuras más complejas transmitidas culturalmente.

Diamantes mandarines, Taeniopygia guttata.

Foto

: Mar

j Kib

by

Divulgación - Sobre la evolución de la facultad del lenguaje

Page 20: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

20 CICNetwork

El substrato anatómico del desarrollo del canto se basa en el núcleo magnocelular lateral del neostriato anterior (lMAN, en inglés). Si se lesiona esta área en los primeros dos meses de su vida, el polluelo de-sarrolla una canción anormal, lo que no sucede en el pájaro adulto. El centro lMAN envía una señal eferente al núcleo robusto del archistria-tum (RA), centro de salida en el circuito de producción, responsable de las señales que gobiernan las motoneuronas respiratorias del pájaro y su órgano fonador durante el canto (la “siringe”). La proyección de lMAN al RA se encarga también de casar la canción del tutor con la producción en la vía HVc-RA. El HVc es responsable de la secuencia rítmica en la canción, el RA de las notas. En polluelos criados en aislamiento –sin posibilidad de com-parar la producción en HVc-RA con la canción de un tutor– falla más la estructura de notas que la secuenciación, lo que sugiere que el sistema controlado por el HVc depende menos de información no expresada en el genoma. Esto iría confirmado por el aislamiento de FoxP2 en el cir-cuito de aprendizaje, conectado (a través del área X, que sólo aparece en aves canoras o vocales) al HVc que determina el ejercicio rítmico. El laboratorio de Constance Scharff ha mostrado cómo la expresión de FoxP2 en el área X aumenta durante la edad crítica del polluelo (35 a 50 días), mientras adquiere su canción. Por su parte, White y su colaboradora Ikuko Teramitsu han mostrado que FoxP2 no sólo es clave en el establecimiento de los circuitos de aprendizaje. El mRNA de FoxP2 se subregula en el área X cuando el macho canta. Es más: tal bajada de concentración se da sólo cuando canta en aislamiento, practicando variantes de su canción, y no cuan-do le canta a la hembra. Es decir, la función de FoxP2 va más allá del desarrollo y no depende sólo del mero control del sistema motriz (in-volucrado en ambos supuestos, cuando el pájaro canta aislado o en compañía).

Un problema de compresión para la comprensiónEs impensable que FOXP2 y FoxP2 no tengan funciones relativamente homólogas, a pesar de las diferencias biológicas obvias entre pájaros y humanos. El HVc forma un circuito análogo al de los ganglios basales frontales en el cerebro humano (que conectan el área de Broca con el núcleo caudado y putamen, el tálamo y eventualmente el córtex motriz). Pero, además, lo que consigue el pájaro a nivel puramente computacio-nal no es sustancialmente diferente de lo que necesitamos los humanos, tanto para el aprendizaje de las lenguas como para su procesamiento.

Tomemos la secuencia “mi re# mi re# mi si re# do la”. Cualquiera re-conoce el motivo inicial de la Para Elisa, y lo distingue del de Claro de luna o la Patética. Tales motivos son agrupamientos de sonidos y silencios en el tiempo, en dimensiones rítmico-melódica y armónica, dentro de una ventana de memoria característica. Dicho espacio de memoria no es ni demasiado grande ni demasiado pequeño, ya que, de lo contrario, sería imposible distinguir un motivo de otro. Computa-cionalmente, entendemos estas cuestiones como régimen de memoria, que implica un autómata de pila (ADP) para este ejemplo (que permite la identificación plástica de frases musicales). Tal autómata es más rico que uno de estados finitos, AEF (cuya memoria es rígidamente equi-valente al proceso que computa) y menos que una máquina de Turing (con memoria de tamaño y plasticidad ilimitadas, lo que permite cual-quier computación). Los diamantes mandarines, por la lógica del aprendizaje/transmisión de sus canciones dentro de los parámetros físicos que las permiten, tie-nen que computar sus cantos en términos de un ADP. Si sólo procesa-ran en términos de AEF, no podría explicarse la plasticidad ni el rápido aprendizaje de las canciones en el período crítico. Cabe esperar, por tanto, que, a nivel informático, dicho circuito de adquisición conlleve un ADP. Como, además, la adquisición se da con respecto a cantos del formato adecuado producidos por el circuito de producción, también cabe pensar que el segundo circuito conlleva tal autómata, como quiera que esto sucede a nivel biológico.

Divulgación - Sobre la evolución de la facultad del lenguaje

Anotaciones de Beethoven para la sexta sinfonía, 1808. (Fuente: British Library)

HVc

ÁreaX

RA

DLM

l MAN

Control de la “siringe”y la respiración

Page 21: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

21CICNetwork

Divulgación - Sobre la evolución de la facultad del lenguaje

El output de la siringe (como el de la laringe humana) es esencialmente unidimensional, debido a limitaciones fisiológicas. Esto se aprecia con representar un canto en notación musical, cuyo soporte central es la melodía; la armonía se abstrae de las combinaciones permitidas, pero no está directamente representada. Matemáticamente, esto nos sitúa ante un problema de compresión: dos dimensiones musicales tienen que reducirse a una, perdiendo información en el proceso. Al piano, es lo que hace que Gould no suene como Rubinstein, incluso si tocan la misma pieza. En el caso de los pájaros, la compresión plantea un problema, en última instancia, de comprensión. A no ser que use la te-lepatía, un pájaro jamás podrá trasmitirle a otro exactamente la misma información bidimensional utilizando un soporte unidimensional. A través de un ADP de algún modo implícito en su cerebro, el pájaro puede aproximarse a una reconstrucción de lo que otro quiso expre-sar: al permitir analizar —dentro de la ventana computacional relevan-te— relaciones entre los sonidos de primer nivel, puede formular una hipótesis de nivel superior de la estructura procesada, siempre que el pájaro productor comprima su expresión de acuerdo a criterios de ADP idénticos. La comunicación no es perfecta, pero sí suficiente. Además, predice variabilidad controlada y un ejercicio de memoria sistémica, que establecerá los límites de adquisición hasta el tiempo crítico en que ese tipo de estructura mental se degrade o se limite, por razones endocrinas.Lo esperable sería que el ADP de los mandarines se encontrara en el área X, punto de conexión entre el lMAN de aprendizaje y el HVc de producción. Ése es el lugar donde se aprecia regulación de FoxP2, tan-to en el aprendizaje como en la producción. La pregunta es: ¿existe relación entre FoxP2 y la memoria operativa del sistema ADP presu-puesto?

Hacia una nueva visión de la evolución lingüísticaEl neurolinguista de Georgetown Michael Ullman observa cómo el TEL-g se asocia con disfunciones en los ganglios basales (núcleo cau-dado) y el córtex frontal (área de Broca). Los circuitos de los ganglios basales frontales se reconocen como activos en la memoria de proce-dimiento. Ullman plantea la hipótesis de que ésta es la causa principal del TEL–g, verdadero desorden lingüístico de procedimiento, que alcanza-ría a otros fenómenos de ritmo y similares.Massimo Piattelli-Palmarini y yo sugerimos que la hipótesis de Ullman, modificada para incidir sobre el régimen de memoria de un autómata como el ADP, se puede extrapolar al área X de los mandarines. FoxP2 estaría regulando la ventana de memoria requerida en cada caso. Que el gen se subregule cuando el macho practica en solitario, generando variantes, mientras que se sobrerregule sutilmente cuando dirige una canción determinada a la hembra, tendría sentido si la ventana de me-moria es necesaria en el segundo caso, cuando se pretende la comu-nicación. Una pregunta fundamental es qué sucede en el área X de la hembra cuando procesa el canto del macho; todavía no existen datos en este sentido.El problema de compresión/comprensión se multiplica en el caso del lenguaje, cuyas dimensiones internas son múltiples, pero que sigue te-niendo que hacerse público en la unidimensionalidad del habla enrai-zada en la laringe. Dado lo arriesgado de extrapolar de mandarines a humanos, es de in-

terés un estudio de Weiguo Shu y colegas que muestra cómo la abla-ción de FoxP2 en ratoncillos se correlaciona con una reducción en el número de llamadas de aislamiento por parte de la cría separada de la madre. Al parecer, las vocalizaciones de los adultos son mucho más complicadas de lo que se suponía, y podrían compartir características con el canto observable en los pájaros. Tales “ratones cantores” consti-tuirían un modelo evolutivamente más cercano a nosotros, y, además, tienen la ventaja de que para esta especie hay técnicas de manipulación genética que no existen aún para los pájaros.Todo lo expuesto plantea un acercamiento a la evolución humana —concretamente, a la del lenguaje— radicalmente distinto a lo que se ha intentando hasta ahora, desarrollando una hipótesis ensayada en un artículo ya clásico de Chomsky, Fitch y Hauser (Science, 2002). La idea de ligar la memoria operativa a la transición al Paleolítico Superior (período que coincide con la datación de la mutación en FOXP2) ha sido recientemente defendida por el psicólogo Frederick Coolidge y el arqueólogo Thomas Wynn. Aunque ellos hablan de “memoria de traba-jo” en sentido amplio, no hay razón para dudar que estemos de nuevo ante un caso de avance evolutivo en la memoria de procedimiento, y, en cualquier caso, un ajuste en el ADP que sin duda tenía ya nuestro antepasado común con los neandertales. La biología molecular nos permite este tipo de extrapolaciones. Pode-mos así imaginar a un homínido del género sapiens con la capacidad conceptual de un chimpancé y un tipo de reorganización cerebral, de algún modo ligado al FoxP2 mutado, que inaugura un control nuevo de este aparato conceptual y su compresión articulatoria. Esto haría pú-blico el sistema conceptual, de manera no muy diferente a lo que está sucediendo en el área X de los mandarines. Ellos comunican cantos románticos; nosotros, pensamientos enrevesados. Saldremos de dudas sobre esa hipótesis cuando el grupo de Pääbo publique el genoma del neandertal. Lo haremos, sobre todo, cuando entendamos el carácter regulador de FOXP2. En cualquier caso, hasta sobre evolución lingüística podemos aprender mucho estudiando otros organismos. Por ponerlo en forma de eslogan, que haría las delicias del genial jesuita Athanasius Kircher (que anticipó la evolución de Darwin y llegó a pensar en formas evolutivas como camello + gorrión = aves-truz...), en el fondo somos la integral en el tiempo –al nivel neuronal relevante y con las matizaciones que se quieran– de simpáticos chim-pancés con jilgueros.

Athanasius Kircher (1602-1680)

Page 22: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

22 CICNetwork

Div

ulg

ació

n

Félix Ares, director de Relaciones con el Sistema Educativo de Kutxa

Divulgación científica y democracia en el siglo XXI

Democracia de portalDesde hace algunos años, es bastante habitual que en las asambleas de copropietarios se hable de la posibilidad de instalar una antena de telefonía móvil en el edificio. Para las empresas de telefonía es cada vez más difícil obtener un permiso de instalación, pues siempre hay algún vecino que dice que las “radiaciones” de las antenas producen leucemia, insomnio o dolores de cabeza. Alguna vez he hablado, en plan informal, con alguno de mis vecinos del hecho de que dichas “radiaciones” no son ni más ni menos que señal electromagnética, de la misma naturaleza que las ondas de radio, televi-sión, o la propia luz. He tratado de explicarles que la diferencia radica en la frecuencia. La radio tiene muy poca frecuencia, lo que significa muy poca energía; los teléfonos móviles, un poco más, y la luz, millones de veces más. Algunas veces les he dado las cifras aproximadas: la telefonía móvil está en el rango de los 2 GHz, y la luz violeta, la más energética, en el de los 700 THz; es decir, la luz violeta es 300.000 veces más energéti-ca que los teléfonos móviles. Después les he contado que, hasta donde yo sabía, el cáncer debido a las ondas electromagnéticas se inicia por daños en la molécula del DNA; pero, para que dicho daño se produzca, cada fotón debe superar determinada energía mínima. El umbral se en-

cuentra, aproximadamente, en la luz violeta. Es decir: la luz ultravioleta, natural, que recibimos del sol, puede producir cáncer, pero la de los te-léfonos, no. Al menos, no sabemos cuál es el mecanismo. Por otro lado, les he explicado que se han hecho muchos estudios epidemiológicos sin resultados concluyentes, lo que significa que si hay alguna relación entre antenas de móviles y cáncer, por un mecanismo desconocido, debe ser muy débil, pues, en caso contrario, ya se habría detectado.Con esto creía que lo habría dejado bastante claro, pero hete aquí que, durante el año 2005, con motivo del centenario de la publicación de los cinco artículos de Einstein (que incluían el efecto fotoeléctrico, la re-latividad, e=mc2...) conté muchas veces el efecto fotoeléctrico. Lo hice por varios motivos: el primero, porque fue por lo que dieron el Premio Nobel a Einstein; el segundo, porque creo que de todos sus trabajos es el que más ha influido en la vida cotidiana; y tercero, porque descubrí que era más fácil explicar la relatividad especial y la general a partir de dicho efecto que de cualquier otra forma.Cuando conté lo de que la luz se comporta como una partícula (fotón) cuya energía depende de la frecuencia y que para romper una molécula de DNA se necesita una energía mínima, uno de mis vecinos —que ve-nía a mis charlas— me volvió a hablar de las famosas antenas que nos querían poner en nuestro edificio... Charlando, charlando, en un mo-mento determinado le dije que los teléfonos móviles se comunicaban con las antenas por radio, lo mismo que los walkie-talkies, y que la úni-ca diferencia era la frecuencia. Entonces, aquella persona, se me quedó mirando y me dijo: “¿Por radio? ¡Pues no se me había ocurrido!”.Intenté contarle que no era exactamente por radio, pues a la frecuencia

Félix Ares, director de Relaciones con el Sistema Educativo de Kutxa,

escritor y divulgador científico, profesor de la Universidad del País Vas-

co (UPV/EHU) en el Área de Arquitectura y Tecnología de Computado-

res; doctor en Informática; ingeniero superior de Telecomunicación.

Page 23: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

23CICNetwork

Divulgación científica y democracia en el siglo XXI

la investigación con células madre embrionarias por muchos motivos dignos. Motivos que no comparto, pero, al fin de cuentas, respetables. Lo que me sorprendió es que el presidente de una de las asociaciones más vociferantes y que más cobertura mediática tienen no sabía lo que era un ser vivo, no sabía que cada célula del cuerpo humano tenía todo el código genético, y no sabía que cuando una célula se duplica se hace un clon de la misma.Toda una línea de investigación de gran ciencia se puede paralizar, como de hecho ha sucedido, por la ignorancia de los votantes sobre temas de ciencia básica.

¿Soluciones?En esta misma revista, algunos científicos han defendido que son ellos y nadie más los que deben —debemos— controlar la ciencia. Sinceramente, discrepo. Para empezar, la investigación científica está pagada en gran parte por dinero que sale de los impuestos, de mis impuestos, y, por tanto, me considero con derecho a controlar lo que se hace con ese dinero. Por otra parte, muchas investigaciones científicas implican un alto riesgo. La percepción del riesgo es algo muy personal. Lo que para unas per-sonas es asumible, para otras no lo es. Y no debe ser el científico el que decida en nombre de toda la sociedad qué riesgo es asumible y cuál no. Esa decisión corresponde a toda la sociedad, lo que no impide que la sociedad pueda delegar dicha potestad en un grupo de científicos. Pero delegación no significa pérdida de control.La única forma que conozco de que la sociedad exprese sus decisiones es mediante la democracia. El problema que se plantea es que, hoy en día, a través de nuestros votos, debemos decidir sobre infinidad de cosas que influyen en el de-sarrollo de la ciencia. Por poner tan sólo unos ejemplos: ¿Qué tipo de energía necesitamos?, ¿hay que replantearse las centrales nucleares?, ¿hay que apoyar decididamente las de cuarta generación?, ¿investiga-mos con embriones o no?, ¿cómo vamos a conseguir agua potable?, ¿ponemos antenas en nuestros tejados, o acabamos con los móviles?, ¿permitimos alimentos transgénicos, o no?, ¿qué controles exigimos a las medicinas para salir al mercado?, ¿cómo analizamos los posibles problemas de la nanotecnología?, ¿si hacemos robots autónomos que ayuden a los ancianos, quién decide qué sistemas de seguridad deben tener?, ¿quién decide si el dinero público se va a utilizar para investigar sobre nuevas vacunas o sobre cómo hacer mascotas transgénicas?...Cada día que pasa es más evidente que nuestra salud, nuestra calidad y duración de vida, nuestros puestos de trabajo... dependen de la cien-cia y de la tecnología. Y continuamente debemos adoptar decisiones, democráticamente, sobre todos estos temas: a veces, en la reunión de vecinos; otras, en un referéndum nacional; otras, en uno europeo...Creo que así debe ser. Somos los ciudadanos —científicos y no cientí-ficos— los que debemos tomar las riendas; pero, para ello, es impres-cindible que tengamos unos conocimientos básicos que eviten que nos den gato por liebre; que nos permitan hacernos una idea de los riegos reales; que nos enseñen que sin un cierto grado de riesgo la sociedad se paraliza; que sin riesgo no hay avance, pero que dicho riesgo debe ser valorado y consensuado democráticamente. En resumen, que debemos divulgar la ciencia para que la democracia en el siglo XXI tenga sentido.

a la que emiten los teléfonos no se le llama radio sino microondas, pero que es una señal del mismo tipo. Pero eso no era el problema. Para mí, la sorpresa fue descubrir que esa persona, culta, que cada quince días acudía a mis tertulias, se había extrañado enormemente al saber que los móviles funcionaban con una señal similar a la de radio. A partir de ese momento me hice un montón de reflexiones: ¿Cómo pensaría esa persona que se comunicaba cuando hablaba con su móvil?, ¿por telepatía?, ¿magia?...Unos días después, se lo conté a uno de los taxistas que habitualmente me llevan de viaje. Al hacerlo, noté que se iba quedando callado, y en un momento determinado me dijo algo así como “claro, usamos los apa-ratos sin preguntarnos cómo funcionan”. Mi conclusión es que aquel taxista, culto, lector infatigable... jamás se había preguntado cómo se realizaba la comunicación. Lo de que era mediante una señal similar a la radio fue una sorpresa para él, como para mi vecino.El desconocimiento de estas dos personas —a las que tengo mucho ca-riño— no impide que en la reunión de vecinos voten sobre las antenas. Y pueden cargarse una tecnología y las ventajas que supone, los pues-tos de trabajo, el aumento de productividad, el aumento de seguridad... simplemente por ignorancia sobre temas elementales de ciencia.

La gran cienciaEn 2006, en una emisora de radio con la que colaboraba habitualmente tuve un debate con el presidente de una organización contraria a la investigación con células madre. Creo que se puede estar a favor o en contra por diversos motivos, to-dos dignos y respetables, pero en aquella ocasión me encontré con una gran sorpresa.Tras un diálogo de besugos, yo hablé de Dolly y expliqué que a un óvulo se le había quitado el núcleo y se le había introducido otro núcleo de una célula adulta. Dije, asimismo, que no entendía por qué cuando se hacen cosas similares con una célula no pasa nada y casi nadie pone re-paros. Sin embargo, en cuanto aparece un óvulo o un espermatozoide, se arma la marimorena. Entonces empezó aquel diálogo que tanto me desconcertó: “Pues la diferencia está clara —me dijo—; es que con el óvulo tenemos un ser vivo. Un ser vivo —recalcó— con todo el código genético de un ser humano”. “Claro, —le dije— exactamente lo mismo que ocurre cuando se hace un cultivo de piel para los grandes quema-dos. Se coge una célula de su epidermis y se cultiva en placas de Petri. Esa célula es un ser vivo que tiene todo el código de un ser humano. Si se trata de una célula mía, tiene todo mi código genético”.Entonces, me empezó a decir algo así como que estaba equivocado, que una célula de la piel no era un ser vivo y que no tenía todo el código ge-nético. Y poco después se descolgó diciéndome algo de que “se trataba de hacer clones”. Allí salió la palabra maldita, “clones”. Fotocopias de personas. Mutantes. Entonces le dije que en el ejemplo que ponía de la piel, cuando se cogía una célula —que era un ser vivo con todo el có-digo genético humano— se cultivaba y se reproducía para formar una piel artificial, cada nueva célula era un clon de la anterior; un clon con todo el código genético humano.No se lo creyó, y el programa terminó cuando él expresaba la idea de que tan sólo era un ser vivo y tenía el código genético de un ser humano si se trataba de un óvulo o un espermatozoide.Como ya he señalado antes, me parece que se puede estar en contra de

Page 24: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

24 CICNetwork

Inve

stig

ació

n ho

y

Page 25: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

25CICNetwork

Tendencias de los semiconductores en la era de la nanotecnologíaJose Maiz, Intel Fellow, director de Calidad y Fiabilidad de Tecnologías Lógicas de Intel

IntroducciónEl siglo XX ha sido un siglo de enormes progresos científicos y tecnoló-gicos, con avances en áreas muy variadas y con gran impacto en la polí-tica, en el ámbito social y en la calidad de vida. Por mencionar algunos:·· La mejor comprensión de la estructura atómica de la materia

condujo a la energía atómica, y a la “bomba”, así como a métodos radiológicos para el tratamiento de enfermedades.

·· En el espacio, nos llevó a los viajes espaciales, al aterrizaje en la Luna, a la exploración de planetas y al telescopio Hubble.

·· En el ámbito de la salud, nos dio la penicilina, el descubrimiento de los genes como codificantes de la vida, el descubrimiento de las células madre, la generación de imágenes médicas, la oportunidad de progresar en la erradicación de las enfermedades infecciosas, y la de avanzar en la lucha contra el cáncer y el alzheimer.

·· En tecnología, nos trajo el vuelo, el coche moderno, el transistor y el circuito integrado con un impacto mucho mayor al imaginado por nadie en ordenadores, teléfonos móviles e Internet.

·· Nos dio los nanotubos de carbono, los fulerenos y un abanico de estructuras de autoensamblaje y de partículas de tamaño nanométrico llenas de promesas gracias a sus extraordinarias e inesperadas propiedades, dando así comienzo a un esfuerzo mundial en nanotecnología.

El término nanotecnología nos lleva a pensar inmediatamente en mara-villosos artilugios tecnológicos y revolucionarios métodos para el tra-tamiento de enfermedades. Este término se ha empleado con frecuen-cia de forma errónea y se ha interpretado de muy diferentes maneras. Genera pensamientos de oportunidad, escepticismo e incluso miedo. La nanotecnología se identifica, con frecuencia de forma poco precisa, con la ciencia de lo muy pequeño y con el prometedor descubrimiento de materiales y dispositivos con propiedades poco comunes y poten-cialmente útiles cuando se reducen sus dimensiones a escala de nanó-metro. Aunque muchos de nosotros acabamos de descubrirla, algunas mentes brillantes como la de Feynman la vieron venir y la predijeron

“Queda mucho sitio en lo pequeño”. “Os estoy diciendo qué se puede hacer”. “No lo estamos haciendo, simplemente porque no nos hemos ocupado aún de ello”. “Puede ser incluso de interés económico el hacer las cosas tan pequeñas”. Richard Feynmann, “Congreso anual de la Sociedad Americana de Física en el Instituto Tecnológico de California, 1959”

Foto

de

deta

lle d

e un

a ob

lea

fabi

cado

usa

ndo

tecn

olog

ía d

e tr

ansi

stor

es d

e 45

nm

. Fue

nte:

Inte

l

Jose Maiz, Intel Fellow, director de Calidad y Fiabilidad de

Tecnologías Lógicas de Intel, licenciado en Física por la Universidad

de Navarra y master en Ciencias y doctor en Ingeniería Eléctrica por

la Ohio State University. Forma parte de los Comités Externos de

CEIT y de CIC nanoGUNE.

Page 26: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

26 CICNetwork

hace ya 50 años. Para introducir el tema de una manera algo ordenada, enfocaré este artículo desde distintos ángulos:·· Las consecuencias de acercarse a la escala del nanómetro,

reduciendo las dimensiones de materiales y dispositivos disponibles hoy en día. Los dispositivos de tamaño inferior a 100 nm se aceptan generalmente como nanotecnológicos, aunque no haya ninguna evidencia concreta de que ese límite tenga importancia alguna. Esta concepción de la nanotecnología es aplicable a la mayoría de técnicas y métodos aplicados hoy día en la industria de los semiconductores, y se conoce como aproximación “top down”.

·· La construcción de nanoestructuras por autoensamblaje, lo que para la mayoría de los científicos son conceptos nuevos y prometen propiedades poco usuales y nuevas aplicaciones difíciles de definir. Esta aproximación se llama a menudo “bottom up” o autoensamblado.

Aunque pueda pensarse que estas dos formas de acercarse a la nano-tecnología son totalmente distintas e independientes entre sí, son en realidad complementarias y su combinación quizás ofrece la mayor probabilidad de aplicaciones prácticas a corto plazo. En cuanto a largo plazo, tengo la certeza de que somos incapaces de ni siquiera imaginar las aplicaciones más prometedoras. La naturaleza tiene la costumbre de sorprendernos con oportunidades muy superiores a las nunca pro-yectadas desde nuestra limitada perspectiva e ignorancia. La nano-tecnología nos ha rodeado desde siempre, desde mucho antes de que pensáramos en ella. Si simplemente hubiéramos mirado, habríamos descubierto nanoestructuras de carbono entre las cenizas de nuestra chimenea. Todos nosotros somos nanotecnología, ya que, disponien-do del entorno químico adecuado, la información genética de nuestros cromosomas codifica y fabrica proteínas que resultarán en la construc-ción y funcionamiento de nuestros cuerpos y cerebros, haciendo de nosotros mismos el más bello ejemplo de autoensamblaje.El deseo de beneficiarse de las potenciales oportunidades en los cam-pos científico, médico, comercial y militar ha resultado en un gran es-fuerzo de inversión en nanotecnología a nivel mundial. La tabla 1 resu-me las inversiones a escala mundial.Permítanme empezar con la definición de unidades y la descripción di-mensional de algunos elementos familiares que nos ayudarán a darnos cuenta del orden de magnitud de las dimensiones de las que estamos hablando. Un nanómetro es la mil millonésima parte de un metro, ó 1x10–9 m para aquellos que tengan interés en las matemáticas. La di-mensión de algunas estructuras familiares se presenta en la figura 1 como referencia.

Investigación hoy - Nanotecnología

Tabla 1: Inversión en nanotecnología (M$) en ciencias físicas. Fuente: Intel.Figura 1: Algunas dimensiones comunes del mundo natural.

100.000 nm. Pelo humano

4.000 nm. Glóbulo rojo

100 nm. Virus de la gripe

2,5 nm. Hebra de DNA

1,3 nm. Nanotubo de C.

Page 27: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

27CICNetwork

Investigación hoy - Nanotecnología

Este artículo describirá algunos aspectos fundamentales de la nano-tecnología según nos aproximamos desde el “top down”. La perspec-tiva del autoensamblaje solo se mencionará cuando claramente se superponga al “top down” o para mostrar cómo se complementan. La referencia a su complementariedad es debida a que la tecnología de los semiconductores proporciona a menudo la infraestructura más útil para sacar provecho de las partículas y estructuras autoensambladas, y facilita tanto su fabricación como la posibilidad de acceder eléctrica-mente a ellas y así establecer un método de comunicación conveniente con el mundo exterior. La nanotecnología basada en el autoensamblaje es un área muy amplia y merece ser tratada en un capítulo aparte.

La microelectrónica y su progresión hacia la nanotecnologíaDesde la invención del circuito integrado por parte de Jack Kilby y Ro-bert Noyce en 1959, la industria de los semiconductores se ha guiado por la denominada Ley de Moore. No es, por supuesto, una ley física sino una observación (ver figura 2 a) de Gordon Moore publicada en la revista Electronics del 19 de abril de 1965. Afirmó que el punto de ma-yor rendimiento en costes de la integración de elementos en un circuito se duplica aproximadamente cada 18 meses. Esta fue, literalmente, su observación: “La reducción de costes es uno de los principales atracti-vos de la electrónica integrada, y sus ventajas aumentan a medida que la tecnología evoluciona hacia la integración de más y más funciones en un substrato monolítico de semiconductor”.La tendencia identificada por el dr. Moore en 1965 ha llegado mucho más lejos que las expectativas originales, quizás como resultado del esfuerzo de la comunidad científica e industrial en seguir respondien-do a la expectativa creada. La clave ha sido el éxito de la industria de los semiconductores en superar los múltiples obstáculos y dificultades que han surgido a lo largo del camino, probando así con rotundidad que aquellos que en múltiples ocasiones auguraron su declive en base a supuestos “limites físicos fundamentales” estaban equivocados. La figura 2b muestra la tendencia del número de transistores integrados en un único bloque monolítico de silicio (chip) a un coste constante. Es interesante indicar que la optimización de costes de fabricación y rendimiento ha hecho que estos componentes (chips) tengan con fre-cuencia dimensiones aproximadas de 1 cm2. En la figura se puede ob-servar un aumento en el número de transistores por componente de un millón de veces desde 1970 hasta nuestros días. Si a eso se le añade el hecho de que la velocidad de operación de los transistores incorpora-dos es posiblemente 10.000 veces mayor, es fácil de entender porqué un teléfono móvil tiene hoy más capacidad operativa que un ordenador del tamaño de una habitación de los años 50, y porqué aceptamos como normal instrumentos y posibilidades de comunicación que ni siquiera eran accesibles hace solo 10 ó 15 años. Por supuesto, tal y como obser-vó el propio dr. Moore, ninguna función exponencial puede continuar indefinidamente, y la tendencia bien se ralentizará o bien cambiará de dirección en el futuro. Pero debemos ser cautos y no caer en la trampa de nuestra propia ignorancia. Aunque las dimensiones de los transisto-res actuales se consideran diminutas, son del orden de 30 nm y son por tanto mucho mayores que el diámetro de un nanotubo de carbono, una nanopartícula o una proteína que quizás puedan medir del orden de un 1 nm. El resultado es un ratio volumétrico de 303 ó 27.000 y, por ello, no deberíamos subestimar la capacidad colectiva de nuestras autoensam-

Figura 3. Tendencia de miniaturización de las características de los semiconduc-tores. La puerta del transistor, quizás el elemento más crítico que influye en el rendimiento del transistor, ha observado una aceleración en su miniaturización.

Figura 2. Beneficios económicos del incremento en el nivel de integración en los aparatos semiconductores. a) Gráfica publicada por G. Moore en 1965. b) Progresión del número de transistores por chip (Intel). Muestra un aumento de un millón de veces en 35 años. c) El coste por transistor en 2004 rondaba los 100 nanodólares. Fuente: Intel

a

b

c

Page 28: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

28 CICNetwork

Investigación hoy - Nanotecnología

Oblea de transistores de la generación 65 nm de Intel.

bladas mentes para descubrir maneras creativas de aprovechar esta oportunidad.El gráfico de la figura 3 muestra las tendencias de la dimensión mínima de interconexión metálica entre transistores así como la de la puerta de polisilicio en el transistor. Esta gráfica se utiliza habitualmente para representar la progresión de la miniaturización desde la microtecno-logía a la nanotecnología en los semiconductores. Se puede observar que se ha conseguido una nueva generación tecnológica con un factor de miniaturización lineal de la dimensión de 0,7 cada 2-3 años. Esto implica una miniaturización en cuanto al área de 0,72 por cada nueva generación tecnológica y, por lo tanto, una duplicación del número de transistores que se puedan integrar en una determinada área de silicio. Mientras que la tendencia se ha mantenido constante para las inter-

conexiones metálicas, se puede observar que se aceleró a mediados de los 90 en la más crítica de sus características, la longitud de puerta del transistor manteniéndose después paralela a la tendencia principal. Debemos indicar que por razones prácticas relacionadas con corrien-tes de fuga y de movilidad de portadores de carga, esta tendencia de miniaturización de la puerta del transistor convencional se decelerará probablemente en un futuro próximo. Esto es un problema, pero es a su vez una oportunidad para descubrir y desarrollar arquitecturas novedosas para el transistor. El gráfico utiliza como convención la de-nominación nanotecnología para aquellas tecnologías que producen dispositivos con tamaños iguales o inferiores a 100 nm. Como se ha indicado anteriormente, ésta es una definición arbitraria, especialmen-te porque, excepciones aparte que serán descritas posteriormente, el

Imágenes de su proceso de fabricación.

Page 29: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

29CICNetwork

Figura 6. Micrografías de transmisión de electrones de las secciones transversales de la puerta del transistor. a) Los transistores con material dieléctrico de SiO2 han sido utilizados hasta la generación tecnológica de 65 nm pero tienen corrientes de fuga sustanciales debido al efecto túnel. b) Materiales dieléctricos con permitividades eléctricas más elevadas (alta-K) como HfO2, ZrO2 y otros con semejantes propiedades permitirán utilizar espesores mayores permitiendo continuar el incremento en la velocidad del transistor mientras se reduce al mismo tiempo las corrientes de fuga.

Puerta

3,0 nm alta K

Puerta

1,2 nm SiO2

Sustrato de silicio Sustrato de silicio

Fig. 4. a) Transistor de la generación 65 nm de Intel, con una longitud de puerta de 35 nm. b) Micrografía del virus de la gripe con una dimensión de unos 100 nm. c) Una hebra de DNA con una partícula de oro de 10 nm incrustada en ella. Fuentes: Intel.

a b

c

100 nm35 nm

30 nm

10 nm

proceso de producción implica depositar una película delgada y definir su geometría por un proceso fotolitográfico y de ataque químico. Todo ello, excepto por las dimensiones, no es diferente del proceso que se utilizaba hace 10 años.La figura 4 muestra una micrografía electrónica de un transistor de la generación de los 65 nm comercializada en 2005, además de una micro-grafía del virus de la gripe y de una hebra de DNA con una nanopartícu-la de oro insertada como referencia de comparación. Como muestran las fotografías, y a pesar del excepcional progreso que ha experimen-tado la industria de los semiconductores, “queda mucho espacio en lo pequeño”.La fotolitografía, método fotoquímico utilizado para definir estructu-ras con pequeñas dimensiones en una oblea de semiconductor, ha sido históricamente el límite clave en la progresión de la miniaturización. Como muestra la figura 5, las mejoras en el conocimiento de aspectos prácticos de electromagnetismo, los avances en fotorresinas química-mente amplificadas y estrategias inteligentes de diseño han permiti-do fabricar estructuras con dimensiones muy inferiores a la longitud de onda de la luz utilizada, junto con un excelente control de dimen-sión. Aún así, este déficit hace que la fabricación de estructuras con la geometría deseada sea cada vez más difícil y, por ello, la industria ha puesto en marcha el desarrollo de un gran proyecto, denominado Fotolitografia con longitud de onda ultravioleta extrema o “Extreme Ultraviolet Photolithography (EUV)”, que utiliza longitudes de onda de 13 nm con expectativas de utilización para el 2011, aunque se estima que el coste sea muy elevado.La dimensión más pequeña de un elemento semiconductor hoy día es la puerta dieléctrica, que separa eléctricamente la puerta que controla si el transistor conduce o no de la región del semiconductor donde la conducción sucede realmente. Esto se describe en la figura 6. Esta puerta dieléctrica está compuesta por un aislante amorfo, generalmen-te dióxido de silicio. Este elemento dieléctrico, que se acercó al grosor de 1 nm en las generaciones tecnológicas de los 90 y de los 65 nm, sufre pérdidas provenientes de las corrientes de túnel, que limitan su reduc-ción de tamaño. Los materiales substitutivos propuestos son los llama-dos dieléctricos de alta K, que tienen un mayor valor de permitividad dieléctrica que les permite ser más gruesos físicamente y así reducir las pérdidas eléctricas a la vez que mejoran el comportamiento eléctrico. Estos materiales, que a menudo se basan en HfO

2 o ZrO

2 o sus respec-

tivos silicatos, se depositan a menudo mediante un verdadero método de autoensamblaje en una dimensión. Ese proceso está todavía lejos del autoensamblaje de proteínas en 3 dimensiones, y que dirigido por el DNA utilizan los organismos vivos con un costo mínimo. El método se llama deposición por capa atómica (ALD, del inglés Atomic Layer Deposition) y se basa en depositar una capa atómica del material de-seado por cada ciclo utilizando conceptos químicos de autolimitación. Este es un proceso de autoensamblaje y el concepto se describe breve-mente en la figura 7. Imaginemos una molécula que contiene un átomo de tipo A, que tiene afinidad química por las terminaciones químicas de un substrato. Una monocapa de la molécula se autounirá a la superfi-cie de una manera autolimitadora (pasos 1 y 2). Imaginemos entonces que la superficie se expone a una segunda molécula que contiene un átomo B que puede reaccionar con la molécula A. El resultado será una monocapa del compuesto AB. Repitiendo los dos pasos anteriores,

Investigación hoy - Nanotecnología

Fig. 5. Progresión de la tecnología y de la capacidad fotolitográfíca. La litografía ultravioleta extrema (EUVL) es el siguiente gran salto esperado. Fuente: Intel.

Page 30: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

30 CICNetwork

Investigación hoy - Nanotecnología

se depositarán progresivamente monocapas de la especie AB de una manera altamente controlada. Esta es una de las maneras habituales de depositar HfO2, un dieléctrico de alta K que puede ser depositado de una manera controlada mediante, por ejemplo, pasos sucesivos de Hf organometálico y H

2O o alternancia de HfCl

4 y H

2O.

En la figura 8 se muestra otro ejemplo de autoensamblaje de un capa interna dieléctrica (ILD, del inglés InterLayer Dielectric) porosa au-toensamblada. El ILD es la capa dieléctrica que aísla eléctricamente el cable de cobre que conecta los transistores entre sí (figura 8b) para poder realizar la función requerida. Se necesita una capa de baja K (permitividad dieléctrica baja) porque disminuye la capacitancia para-sítica entre las líneas metálicas adyacentes, y ello a su vez disminuye el retraso en la transmisión de una señal eléctrica de un nodo a otro.En este caso se requiere un ILD de baja K, es decir, con una permitivi-dad dieléctrica baja. La manera más sencilla de conseguirlo es hacién-dolo poroso. Sin embargo, un aumento incontrolado de la porosidad conlleva una dramática reducción de algunas propiedades mecánicas deseadas. El uso del autoensamblaje, que pueda organizar los poros de una manera predecible y proveer una estructura alrededor de ellos, puede ser la mejor manera de reducir la permitividad dieléctrica a la vez que se mantienen unas propiedades mecánicas aceptables.No deberíamos olvidarnos de la observación del dr. Moore de que nin-guna tendencia exponencial puede continuar de forma ilimitada. La re-ducción de dimensiones y el control de la variabilidad del proceso son cada vez más difíciles en cada generación tecnológica y puede que al-gunos materiales y procesos estén llegando a su límite práctico. Como consecuencia, la industria está realizando un enorme esfuerzo para desarrollar vías complementarias y poder seguir extendiendo la ley de Moore. Algunas alternativas se muestran en las figuras 9, 10, 11.La figura 9 representa un transistor tripuerta. Tiene la ventaja de con-ducir en tres superficies en vez de solo en una, que es el caso de todos los transistores planares de hoy día. Incluso, y debido a sus dimensio-nes nanométricas (unas pocas decenas de nanómetros) el silicio está agotado de carga, lo que resulta en un transistor con características casi ideales, con un mejor rendimiento y menor consumo energético. Este transistor no está exento de dificultades, dado que su estructura de 3-D conlleva muchos retos en el proceso de integración.La figura 10 se refiere a la integración potencial de semiconductores III-V (como GaAs, InP, InSb) en un substrato de silicio. Los portadores de carga de estos materiales tienen mayor movilidad y reducen el tiempo de respuesta del transistor. La figura 10b muestra que dichos semicon-ductores pueden ofrecer una mejora en la relación crítica entre retra-so en el tiempo necesario para la transmisión de una señal eléctrica versus energía. Muchos de estos elementos tienen la ventaja añadida de ser útiles para aplicaciones ópticas debido a sus características de emisión fotónica.La figura 11 describe un transistor fabricado con un nanotubo de car-bono. Este tipo de elementos plantean el reto adicional de conectarlos y alinear adecuadamente miles de millones de ellos para conseguir el funcionamiento deseado.

El impacto social. Algunos ejemplosCuando se inventó el primer circuito integrado, nadie fue capaz de pre-decir su impacto en los ordenadores, en las comunicaciones y en la

Figura 8. a) ILD de poros autoorganizados, propuesto por J. Brinker de la Universidad de Nuevo México / Sandia National Laboratories. Su ensamblaje está dirigido por moléculas surfactantes orgánicas de dos caras. b) Micrografía de capas interconectadas en un chip de 65 nm. Fuente: Intel.

Figura 7. La deposición en capa atómica (ALD) es un proceso real de autoensamblado en 1 dimensión. Este tipo de procesos son cada vez más comunes en la industria de los semiconductores.

Figura 9. a) Micrografía de un transistor tripuerta. b) Esquema de un transistor tripuerta. c) Características eléctricas. Fuente: Intel.

cb

a

Page 31: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

31CICNetwork

Investigación hoy - Nanotecnología

vida diaria de las personas. En realidad, si vamos a las publicaciones de 1990, casi nadie predijo el impacto y el crecimiento meteórico del uso de Internet y su accesibilidad casi universal. Pensemos tan solo en los teléfonos móviles. Las tendencias de uso representadas en la figura 12 son extraordinarias, y hasta ahora no han mostrado ningún signo de abatimiento aunque sus cifras ya no sean despreciables en compa-ración con el número de habitantes del mundo. Incluso más impresio-nante aún es el hecho de que países que no tienen infraestructuras de comunicación estén implementando su uso con tecnología inalámbrica y que, por lo tanto, desarrollarán en pocos años capacidades similares a las de los países industrializados. La evolución de las funcionalidades es impresionante. Los jóvenes de hoy quieren tener móvil con cámara, música en formato MP3, comunicación por voz y texto, y creen que es natural acceder a Internet y ver un video en el teléfono móvil. Todos estos servicios son consecuencia de la ley de Moore que implica doblar las funcionalidades cada dos años. Ello implica un aumento de las fun-cionalidades de 25 = 32 veces en 10 años, y 210 = 1.024 en 20 años.Aunque es obvio que las tendencias exponenciales no pueden seguir para siempre, debemos ser cautos al vaticinar su caída empujados por las limitaciones de nuestra propia ignorancia. Según se vayan saturan-do las tendencias de los dispositivos actuales, irán surgiendo nuevas tecnologías que están ahora en fase de gestación o de investigación. Es indudable que las nanotecnologías jugarán un papel preponderante en esta transformación.Los entusiastas de la nanotecnología apuntarán rápidamente que la nanotecnología se utiliza mucho hoy día. Mencionarán la cosmética, los filtros solares, los materiales basados en estructuras de nanofibras, como el fuselaje del Boeing 787 o más cerca de casa, las bicicletas Or-bea, y los marcadores biológicos. Todas estas aplicaciones tienen un cosa en común que indica que estamos en el comienzo del desarrollo de la nanotecnología: utilizan las novedosas y útiles propiedades de las nanopartículas y nanofibras para una aplicación macroscópica. Se empaquetan todas a la vez para conseguir una propiedad macroscópica mejorada. Pero sabemos que esto es una parte infinitesimal de la pro-mesa nanotecnológica. La verdadera promesa se materializará cuando aprendamos a utilizar un único nanoelemento para realizar una función específica. ¿Cómo lo sabemos? Mírate al espejo: tú eres nanotecnolo-gía. Cientos de miles de proteínas y moléculas altamente específicas realizan funciones altamente específicas gracias a su estructura quími-ca y a su forma física tridimensional.Reconozco mi ignorancia y mis limitaciones a la hora de imaginar el futuro. Es difícil decir cómo evolucionará, pero lo que parece cierto es que la nanotecnología prosperará y complementará en sus múltiples fa-cetas otros desarrollos de la tecnología de los semiconductores y la bio-ingeniería. Los semiconductores continuarán probablemente ofrecien-do capacidades de comunicación y computación para hacer frente a problemas de extremada complejidad y ofrecerán la manera de conver-tir los nanofenómenos en señales eléctricas que facilitarán una interfaz fácil con los humanos. Estos nanofenómenos probablemente impliquen al mundo de las biociencias, con sus promesas de infinitos paralelismos, diversidad en las funcionalidades y costes cercanos a cero.¿No se lo cree? Piense en el coste de los materiales que su madre ingi-rió durante los nueve meses en los que su maravilloso cerebro, basado en la nanotecnología, se formó.

Figura 10. Semiconductores tipo III-V, fabricados en substrato de silicio. Fuente: Intel

Figura 11. Circuito de un inversor hecho con un nanotubo de carbono. Fuente: Derycke et al. www.ibm.com/research

10b

Figura 11. Figura 12. Gráfico del uso de Internet y del teléfono móvil.

Page 32: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

32 CICNetwork

Sin duda alguna, la industria microelectrónica ha sido, y es, clave para el desarrollo de la eco-nonomía global. El gran incremento de la ca-pacidad de integración de transistores en chips constituye el verdadero motor del avance tec-nológico que tanto ha influido en nuestra vida cotidiana. Debido al enorme incremento de la capacidad de procesamiento y comunicación, nuestra existencia está rodeada de un gran número de productos y servicios: coches, mó-viles, sistemas médicos, sistemas multimedia, Internet, etc., cuyas prestaciones actuales ni tan siquiera imaginábamos hace algunos años.Por citar un ejemplo, “la idea de tener un siste-ma portátil, fácil de usar, que nos diese la posi-ción exacta allá donde estuviésemos, en cual-quier punto del globo, parecía inimaginable hace una generación”. Hoy en día, sin embargo, nos encontramos en el mercado con una amplia gama de sistemas de navegación (GPS) de uso muy habitual. Un paso más en el incremento de la miniaturización, y nos encontraremos estos dispositivos integrados en los teléfonos móvi-les, simplificando la localización personal.Como señala Jose Maiz en su artículo, dichos logros se han obtenido con técnicas y procesos que han utilizado la metodología top down, que consiste en la reducción de escala (miniaturi-zación) hasta donde dichas técnicas y procesos lo permitan. Dicha reducción parece tener un límite no lejano, y conllevará un incremento cada vez mayor de los costos de los procesos técnicos de producción. Por ejemplo, habrá que desarrollar nuevas generaciones de ultra-sofisticados equipos de nanolitografía que ha-gan posible el procesamiento de máscaras de gran y creciente complejidad.Es fácil expresar con pocas palabras la revo-lución que ha supuesto el fuerte avance de la industria microelectrónica en la economía y en nuestra vida diaria, pero me resulta complicado

poder predecir con una cierta seguridad lo que nos deparará la “era de la nanotecnología”.Por debajo de los 50 nm, las partículas empie-zan a obedecer a las leyes de la física cuántica, y las propiedades eléctricas y magnéticas cam-bian drásticamente. Si la investigación y desa-rrollo en este campo nos permiten conocer en profundidad y manejar dichas leyes, tal vez nos encontremos dentro de unos años con disposi-tivos tales como computadores cuánticos, que supondrán un aumento progresivo de la capa-cidad de procesamiento. En mi opinión, las enormes expectativas sur-gidas con la nanotecnología hay que buscarlas también en otros campos, como, por ejemplo, en el de la nanobiotecnología, consistente en la combinación de entidades biológicas (enzi-mas, DNA, etc.) con estructuras nanométricas fabricadas por la mano humana para desarro-llar dispositivos tales como DNA-chips identi-ficadores de enfermedades, dosificadores de medicamentos, o para la fabricación de piel artificial..., que pueden suponer una verdadera revolución en el diagnóstico y tratamiento de enfermedades.Igualmente cabe mencionar las expectativas creadas por los materiales nanoestructurados en dos dimensiones (nanotubos o nanohi-los) o en tres dimensiones (nanopartículas o fulerenos), o por las investigaciones en nano-magnetismo, biomimetismo, electrónica mole-cular, nanofotónica, etc.Sin embargo, no podemos obviar los debates éticos suscitados por los riesgos asociados a las nanotecnologías, debido a que, al ser las nanopartículas de la misma escala dimensional que células y proteínas, se pueda especular con interacciones desconocidas o no controladas que afecten a la salud humana y animal. Otro riesgo, rápidamente percibido, es el de las ca-racterísticas del autoensamblado y replicación asociadas a un crecimiento descontrolado.Si bien todo apunta a que la nanotecnología su-pondrá una gran revolución tecnológica, no po-demos olvidar que las personas compran pro-ductos, no tecnología. Destacaría, al respecto,

dos aspectos. Por un lado, en el desarrollo de productos, observamos, en general, la jerar-quía nano-micro-macro, por lo que el desarro-llo del potencial de la nanotecnología llevará asociado, a su vez, el de las microtecnologías. Y por otro, para que la nanotecnología pueda desarrollar todo su potencial, será necesario que, desde el principio, aparezcan empresas de éxito con productos basados en aquella, con objeto de que la “inversión” mantenga un alto nivel de confianza.En mi opinión, estamos todavía muy en el ini-cio del desarrollo de la nanotecnología desde su concepción bottom up. Para validar su éxito en base a aplicaciones prácticas que puedan trasladarse al mercado en forma de productos y servicios, queda un largo recorrido, que ne-cesitará de un gran esfuerzo en investigación y en equipos, a la vez que habrá que superar las barreras éticas y los riesgos de un crecimiento descontrolado. Mi conclusión final, coincidente con lo expues-to por Jose Maiz en su artículo, es la siguien-te: considero totalmente necesario avanzar de manera combinada entre las dos concepciones (bottom up y top down) en la investigación nanotecnológica, lo que nos ofrecerá —en un plazo no demasiado largo— las mejores expec-tativas de aplicaciones prácticas.

Por un futuro nanotecnológico

Investigación hoy - Opinión

Director general de CIC microGUNE

Carlos Luri

Page 33: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

33bioBASK

El apartado “Entorno CIC” quiere ser una ventana abierta en la revista CIC Network para mostrar los avances y novedades más significativos que se desarrollan en el ámbito de los Centros de Investigación Cooperativa de Euskadi, ofreciendo información sobre aquellas líneas de investigación que se llevan a cabo en sus laboratorios o sobre los proyectos internacionales en los que participan dichos centros. Asimismo quiere ser el reflejo de aquellas informaciones relevantes que se den en el emergente mundo empresarial vasco de las “bio” o “nano” ciencias. Esta sección pretende erigirse en una plataforma para el debate y las ideas, donde la comunidad científica e investigadora pueda trasladar sus aportaciones y reflexiones acerca de los nuevos retos y oportunidades a los que debemos hacer frente en el nuevo contexto mundial en el que vivimos.

Entorno CIC

Estrategia nanoBASK 2015:Joseba Jauregizar avanza las líneas principales de la estrategia nanoBASK 2015.

CIC nanoGUNE y CIC microGUNE, proyec-tos de investigación en marcha.

Empresa vasca / Euskal enpresa.

32

38

53

en Euskadi

Foto

: Kae

rff

Page 34: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

34 Entorno CIC

nanoBASK 2015 Una estrategia integral de apoyo al desarrollo empresarial de las nanociencias

Joseba Jauregizar, director de Tecnología del Gobierno Vasco

ca con parámetros claramente definidos, sino que más bien representa un nuevo enfoque multidisciplinar en el que convergen diversos cam-pos científicos y tecnológicos. La N&N abarca diversas disciplinas científicas y tecnológicas en el ám-bito de la física, la biología y la química que, a lo largo de las últimas décadas, han ido confluyendo hacia la escala nano. Aprovechando la integración y complementariedad entre todos estos campos, la nano-tecnología ofrece una gran diversidad de ámbitos de aplicación, que además se ve favorecida por el fenómeno de su convergencia con la biotecnología, las TIC y el campo del cognos.La potencialidad de trabajar con materiales y dispositivos a escala na-nométrica fue apuntada por primera vez, en 1959, por Richard P. Feyn-man en su charla “There is plenty of room at the bottom”. El término nanotecnología se utilizó por primera vez en 1971, y el verdadero naci-miento de la N&N se produce con la invención del microscopio de efec-to túnel en 1981 por Binning y Rohrer. Desde entonces, su evolución ha

El nacimiento de la apuesta por las nanocienciasA lo largo de los últimos años, las Nanociencias y la Nanotecnología (N&N) han pasado de ser unas ramas científico-tecnológicas emergen-tes, a veces escondidas o integradas en campos más amplios y restrin-gidas al ámbito de la investigación básica, a convertirse en una de las principales líneas de la investigación, básica y aplicada, que se desarro-lla en los países avanzados. Hoy, la N&N es también considerada como una de las áreas con más futuro para el desarrollo industrial, ya que se están viendo los primeros ejemplos de productos en el mercado que integran avances en N&N.Básicamente, el potencial e interés de la nanociencia y la nanotecno-logía radica en el hecho de que las leyes de la física operan de forma sensiblemente diferente a escala nanométrica, lo que implica el reto científico de conocer y controlar las propiedades de los materiales en la nanoescala y la oportunidad de aplicación en multitud de productos de mercado. La nanotecnología no es en sí misma una tecnología bási-

Page 35: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

35Entorno CIC

sido vertiginosa, especialmente desde el inicio del presente siglo, en el que se ha situado en lo más alto de la prioridad de gobiernos, universi-dades, centros de investigación y empresas.Su estado emergente y el creciente esfuerzo dedicado al desarrollo de la nanotecnología hace que continuamente estén apareciendo cifras de mercado, en algunos casos dispares. Sin embargo, existe consenso en cuanto a que el mercado de los productos que incorporen nanotecno-logía será muy grande a medio y largo plazo. Esta visión es lo que está empujando el desarrollo de numerosas iniciativas y estrategias nacio-nales, pero también regionales y supranacionales. Un gran número de países, grandes y pequeños, están desarrollando sus propias estrate-gias en N&N, y el apoyo que se está dando desde los gobiernos de paí-ses como EE.UU., Japón o Alemania y desde el entramado industrial, tanto por grandes multinacionales como por pequeñas empresas sur-gidas para poner en valor económico el conocimiento generado en la-boratorios de todo el mundo, hace concebir esperanzas de que la N&N protagonice de verdad la próxima revolución industrial.En este contexto, desde el País Vasco se ha apostado por ser protago-nista de los cambios que se van a suceder en los próximos años, con el convencimiento de que la competitividad internacional de nuestro tejido productivo exige aportaciones continuas de nuevo conocimiento y de nuevas tecnologías. La apuesta por la N&N es un paso más, que viene a sumarse a otros anteriores en áreas como las biociencias, a través de bioBASK 2010, y que se articula a través de una estrategia clara, orientada a nuestras necesidades y que nace de un conocimiento profundo de la realidad, tal como se detalla más adelante.

El mercado y el esfuerzo en nanocienciasLa relevancia que ha adquirido la N&N tiene mucho que ver con los datos de mercado aportados por numerosos estudios. Por ofrecer sólo algunos, las ventas de productos que incorporan nanotecnología lle-garán a representar en el año 2014 el 15% de la facturación del sector manufacturero global, frente al 0,1% actual, estimándose el valor de

las ventas para entonces en 2,15 billones €, según Lux Research. Dicha cifra representa un mercado de tamaño similar al de las tecnologías de la información y las telecomunicaciones, y 10 veces superior al de la biotecnología. Es preciso aclarar que estas previsiones se refieren a productos que incorporan nanotecnología o que utilizan la nanotecnología en sus procesos de fabricación, aunque las expectativas de mercado para pro-ductos propiamente nanotecnológicos son también significativas. Con respecto a este tipo de estimaciones, cabe aclarar que la nanotecnología impacta en varios niveles a lo largo del conjunto de la cadena de valor:·· A nivel de las materias primas, gracias a la introducción de

nuevos materiales con características nuevas o mejoradas.·· A nivel de componentes y productos intermedios, por las

nuevas propiedades y funciones con que los dota. ·· En productos finales, que integrando los anteriores consiguen

mejorar sus prestaciones o desarrollar funciones nuevas.Esta clasificación facilita, en muchos casos, la comprensión de las di-versas interpretaciones y estimaciones que existen sobre los esfuerzos de investigación dedicados a la N&N. Desde otra perspectiva, se iden-tifican tres grandes etapas en el proceso de maduración en el mercado de las nanotecnologías:

Entorno CIC · nanoBASK 2015

Figura 1. El camino multidisciplinar hacia la nanotecnología. (Fuente: BASF)

Pinza electrostática agarrando algunos nanohilos del silicio. Fuente: OHNN

Page 36: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

36 Entorno CIC

Entorno CIC · nanoBASK 2015

·· En primer lugar, la introducción de herramientas e instrumentos adecuados para trabajar en la nanoescala es un requisito indispensable para el desarrollo de cualquiera de sus aplicaciones. Por ello, los fabricantes de instrumentación constituyen el primer segmento de la nanotecnología en alcanzar el mercado. Según previsiones de la OCDE, en los próximos años se esperan crecimientos de la industria de herramientas nanotecnológicas del orden de un 30% anual (el año 2005, este mercado representaba sólo en EE.UU. un valor de más de 200 millones de €).

·· En segundo lugar, se avanzará en el conocimiento de los materiales nanoestructurados y se desarrollará la industria de materiales necesaria para abastecer en gran escala a las futuras aplicaciones.

·· En un tercer nivel se encuentra la entrada en el mercado de las aplicaciones de la nanotecnología en productos y procesos diversos, siendo por orden cronológico los principales sectores destinatarios de aquellos el de la energía, la salud y la electrónica, esperándose la consolidación de este mercado a partir de 2015.

En lo que se refiere al gasto en investigación específico en nanotecno-logía, la mayoría de las fuentes lo consideraban en 2004 por encima de los 5.000 millones de € (la NSF lo estimaba en cerca de 7.000 millones de €), habiéndose multiplicado por diez desde el año 1997. La contribu-ción pública y privada a este esfuerzo es bastante desigual, dependien-do del país, pero, globalmente, aportan cifras similares. Según Lux Re-search, las administraciones públicas absorben cerca del 55% del gasto total en I+D, siendo el reparto aproximado de dicha inversión pública, por bloques geográficos, tal como se observa en la figura 2.Llama la atención el caso de un pequeño país como Singapur, con una clara vocación de apoyo a la N&N (en términos absolutos, similar al apo-yo público que recibe en el estado español el año 2005). Existen también muchos otros países de tamaño medio y pequeño con una estrategia definida y un apoyo considerable a este campo, como Irlanda, Taiwán o Corea. Según datos de la Comisión Europea, el nivel de financiación pública de la I+D en N&N en Europa ha pasado de unos 200 millones de euros el año 1997 a los más de 1.000 millones de euros en 2003, de los cuales aproximadamente dos tercios corresponden a programas nacio-nales y regionales, destacando especialmente el caso de Alemania.

Resulta todavía más complicado estimar con precisión las actividades en I+D en nanotecnología del sector privado. Se calcula que unas 1.500 en el mundo ya tenían planes de I+D relacionados con la nanotecno-logía en el año 2005. Cerca del 80% de dichas empresas son start ups (unas 1.200), más de la mitad de las cuales (670) se encuentran en EE.UU. y unas pocas en Europa. Una encuesta realizada por el NMCS en EE.UU. y publicada en enero de 2006 señala que cerca del 60% de las empresas industriales tienen planes para introducir productos que incorporan nanotecnología antes del 2010, y el 100% para antes del año 2015. En Alemania, el país europeo con mayores capacidades y esfuer-zo en nanotecnología, había el año 2005, según los cálculos, más de 100 empresas cuyas capacidades esenciales se centran en la nanotecnolo-gía, y entre 400 y 500 involucradas en un sentido más general con la nanotecnología, bien como desarrolladores de productos nanotecnoló-gicos, bien como suministradores o como inversores. No olvidemos que la nanotecnología es un campo que exige altas in-versiones y extremadamente complejo tecnológicamente, por lo que se concentra en organizaciones con un buen soporte financiero y capaces de atraer y desarrollar los escasos y altamente especializados recursos científicos y tecnológicos en este campo. Además, los procesos de de-sarrollo de aplicaciones nanotecnológicas —desde el concepto hasta la comercialización— son largos, por lo que rentabilizar las inversiones a corto plazo resulta complicado.A título indicativo de la actividad en N&N por regiones y campos de aplicación, los resultados de un sondeo a expertos realizado en 2005 muestran que:·· El liderazgo de EE.UU. en las aplicaciones relacionadas con

la salud, los materiales y las tecnologías de fabricación. ·· La posición europea es destacable en las aplicaciones

dentro del sector químico (con liderazgo alemán), y en menor medida en el área de salud.

·· En el campo de la electrónica, destaca el dominio de Japón y otros países orientales como Corea y Taiwán, en competencia con EE.UU.

En otro orden de cosas, entre los años 1998-2004 las inversiones en ca-pital riesgo para el sector de la nanotecnología ascendieron a un total de 915 millones de €, apoyando la creación de 109 start ups nanotec-

Figura 2. Inversión en I+D en nanotecnología en el mundo. (Fuente: Lux Research y NSF)

Privada Empresas + Capital Riesgo

3.060 M€

Pública Nacional, regional, estatal

3.540 M€

Page 37: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

37Entorno CIC

Entorno CIC · nanoBASK 2015

·· Iniciación de actividades de networking y expansión de la cooperación a nivel internacional.

·· Consideración de aspectos educativos y formativos.·· Apertura de una discusión pública de aspectos relevantes a nivel social.·· La demanda de una conversión rápida de conocimiento

con objeto de fortalecer economías locales.En esta vorágine por ensalzar la relevancia que despierta la N&N en el ámbito internacional y como resultado del aumento de la intensidad investigadora y del enfoque multidisciplinar que requieren los trabajos en este campo, en los últimos años han proliferado las redes de inves-tigación centradas en algún aspecto de la N&N. Según un sondeo de la Comisión Europea, se pasa de 54 redes nano contabilizadas en Europa en el año 2000 a 100 redes dos años más tarde, y a muchas más en la actualidad. Esta tendencia se mantiene hoy con la constante creación de nuevas redes, que responden a una tipología diversa.

Situación en EuskadiLa nanotecnología ya aparecía como una de las áreas prioritarias en el anterior Plan de Ciencia, Tecnología e Innovación 2001-2004 a través de uno de los Programas de Investigación Estratégica, comenzándose al inicio de esta década a desarrollar algunos proyectos de referencia dentro del marco del Programa Etortek.De la misma manera, la creación de diferentes CIC en ámbitos como la microtecnología, (CIC microGUNE) o las biociencias (CIC bioGUNE y CIC biomaGUNE) o el manufacturing (CIC marGUNE) está cimentan-do el desarrollo de capacidades que son complementarias —cuando no absolutamente necesarias— para el buen desarrollo de la nanociencia y la nanotecnología. El desarrollo coordinado de los diferentes CIC y la promoción de la colaboración entre ellos está orientado a hacer realidad en el País Vasco la convergencia entre las tecnologías de la información y las comunicaciones, la biotecnología y la micro y na-notecnología, y a que pueda dar sus frutos en áreas como la energía o el transporte. Esta convergencia será el motor de los importantes cambios que, en el ámbito tecnológico en primer lugar, pero, paulati-namente, también en el industrial y en el social, se irán sucediendo en los próximos años. De especial interés para la nanotecnología resultan las actividades en microtecnología, cuyo desarrollo contribuye en gran medida a la estrategia top down, que constituye uno de los enfoques imprescindibles para el avance de la N&N.En la actualidad, se están impulsando diversos proyectos en el Esta-do, de carácter parcial y en determinados ámbitos, pero a falta de una estrategia y una política clara y definida. Por el contrario, apoyado en las iniciativas y actuaciones mencionadas, en el País Vasco se ha apos-tado por ser protagonista de los cambios que se van a suceder en los próximos años, con el convencimiento de que la competitividad inter-nacional de nuestro tejido productivo exige aportaciones continuas de conocimiento y de tecnología de nuevas áreas. Así nace la estrategia para el desarrollo empresarial de las nanociencias en Euskadi, con el horizonte en el año 2015, nanoBASK 2015, reconociendo a las nano-ciencias como un ámbito científico-tecnológico que debe soportar el desarrollo del conjunto de los sectores industriales del País Vasco. Quizás como en ningún otro caso anteriormente, nanoBASK 2015 es una apuesta ambiciosa, ya que puede asentarse en un gran número de fortalezas de nuestro país:

nológicas. La mitad de esta financiación se ha concedido en los años 2003-2004, lo cual es fiel reflejo de la tendencia creciente del sector, suponiendo en este periodo aproximadamente el 1,6% de la financia-ción total del capital riesgo. El 5% de las empresas copan el 22% de la financiación, lo que muestra la precaución de los inversores privados después de la burbuja de Internet, aunque la buena noticia de verdad es que las start up nanotecnológicas están comenzando a dar beneficios. La importancia de su sector de capital riesgo hace que una gran parte de las empresas nanotecnológicas existentes hoy en día se localicen en EE.UU. Sin embargo, las actividades en nanotecnología no son exclu-sivas de las empresas de reciente creación. Por ejemplo, 19 de las 30 empresas que cotizan en el índice Dow Jones ya habían lanzado en el año 2004 algún tipo de iniciativa relativa a la nanotecnología, y para el año 2006 todas tenían algún tipo de actividad de ese tipo.Ante estas perspectivas, desde el punto de vista del establecimiento de políticas, gran parte de los países líderes han diseñado y lanzado en los últimos años iniciativas específicas para impulsar el desarrollo de la N&N. Si bien la orientación y aumento del esfuerzo investigador es la componente fundamental de todas ellas, también se dedican esfuerzos al desarrollo empresarial y de mercados, a la formación y a otros. Las estrategias en nanociencias nacen por lo general de un esfuerzo multi-disciplinar y del diálogo e interacción de múltiples organizaciones de los ámbitos científico, tecnológico e industrial.Como elemento central de soporte al esfuerzo investigador, la mayoría de los planes puestos en marcha en diferentes países y regiones apues-tan por la promoción de grandes infraestructuras científico-tecnológi-cas. Según los casos, pueden tratarse de infraestructuras totalmente nuevas o del fortalecimiento o reconversión hacia el ámbito nano de infraestructuras existentes, orientadas, en primer lugar, a la generación de conocimiento, pero integrando en la mayoría de los casos activida-des que llegan hasta la transferencia de tecnología. Sustentándose en estas infraestructuras, la mayor parte de las iniciativas comparten una serie de enfoques y políticas comunes:·· Enfoque interdisciplinar.·· Soporte simultáneo a la investigación básica

orientada y a la investigación aplicada.

Page 38: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

38 Entorno CIC

Nan

otub

os. F

uent

e: N

ASA

Más de 20 empresas y grupos industriales ya tienen proyectos y acti-vidades que hacen uso de la nanotecnología y que están tratando de incorporarla tanto a productos de consumo como a productos indus-triales.Se cuenta con capacidades científico-técnicas muy significativas en di-ferentes campos relacionados con la nanociencia y la nanotecnología dentro de la Red Vasca de Ciencia, Tecnología e Innovación (RVCTI), con grupos singulares de excelencia a nivel internacional en investiga-ción básica (por ejemplo, el DIPC y el Centro Mixto UPV/EHU-CSIC, actualmente en proceso de creación). Así pues, se va a contar con un alto número de investigadores, alrededor de 400, con actividad en este campo. Destaca la apuesta iniciada hace tiempo por el área de la micro-tecnología, con capacidades ya desarrolladas y consolidadas, y que en muchos países está significando un camino natural hacia la nanotecno-logía desde la perspectiva top down.Contamos con dos grandes proyectos en marcha de investigación es-tratégica (dentro del Programa Etortek: Nanomateriales y Nanotron) que están resultando vertebradores de la actividad en N&N, y que en sí mismos constituyen una red efectiva de las capacidades en nanomate-riales, por una parte, y en nanoelectrónica y nanosistemas, por otra.Aportamos liderazgo y contamos con presencia relevante en activida-des de networking relacionadas con la N&N, tanto en redes internacio-nales (Nanoquanta, Metamorphose, Nanofun, Phantoms, etc.) como en las plataformas tecnológicas y en otros proyectos como MNT-Eranet sobre micro y nanotecnología, iniciados en el VI Programa Marco y con continuación en el VII Programa Marco.Al mismo tiempo, la puesta en marcha de nanoBASK 2015 viene a sol-ventar las carencias que todavía caracterizan a nuestro sistema de in-novación, tales como el reducido nivel de gasto en I+D, en términos ab-solutos y relativos (per cápita o con respecto al PIB), en comparación con los países más avanzados en nanotecnología, la limitada masa críti-ca en diferentes grupos de investigación, muy fragmentados dentro de la RVCTI; la colaboración iniciada pero todavía no consolidada entre dichos grupos, o la carencia de grandes empresas tractoras, con activi-

dad actual y/o intereses ya definidos en micro y nanotecnología, salvo excepciones, así como la falta de impulso que, también salvo excepcio-nes, se ha manifestado hasta ahora desde los clusters (Gaia ha liderado la creación de la plataforma tecnológica española ES-ENIAC-SSI).

nanoBASK 2015, una estrategia integralLa apuesta de nanoBASK 2015 pretende conseguir que Euskadi se con-vierta en región de referencia en el desarrollo de la nanotecnología en Europa, tanto en el campo de la I+D como en su industrialización, espe-cialmente en campos como la energía o el transporte. En 2015 debemos contar con un amplio sector industrial que trabaja en la nanotecnología, tanto a partir de start ups y spin offs centradas en la nanotecnología, como de grupos empresariales, con una cifra de negocio que suponga un porcentaje reconocible de nuestro PIB. Para ello, la nanotecnología será un componente importante que ya se integre en una amplia varie-dad de productos y procesos de empresas vascas de múltiples sectores, haciendo a Euskadi partícipe del importante mercado que se espera en ese momento. Este objetivo puede parecer ambicioso, pero puede alcanzarse si nos ceñimos a los objetivos estratégicos fijados: ·· Fortalecer el conocimiento básico orientado a través de una

actividad de investigación, desarrollo e innovación en micro y nanotecnologías que responda a un alto estándar internacional, de manera que el País Vasco contribuya como país tecnológicamente avanzado al desarrollo del ERA (European Research Area).

·· Incorporación de investigadores de alto nivel científico-tecnológico con orientación y conocimientos de las necesidades y de la realidad industrial.

·· Contribuir a la convergencia tecnológica efectiva en el País Vasco de las áreas de TIC, Bio y Micro y Nano, a través de la multidisciplinariedad y la integración de actividades, equipos y organizaciones.

·· Promover la rápida utilización de las micro y nanotecnologías y su incorporación a productos y servicios innovadores por parte de las empresas vascas.

Entorno CIC · nanoBASK 2015

Page 39: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

39Entorno CIC

Entorno CIC · nanoBASK 2015

·· Ayudar al aumento del peso de los sectores de alta intensidad tecnológica en el PIB vasco, de forma que se produzca una revitalización sostenible de la industria actual, haciéndola más intensiva en investigación y basada en el conocimiento, incrementando la participación del País Vasco de un mercado con crecimientos exponenciales para la próxima década.

La estrategia que se va a poner en marcha tiene un carácter integral, articulada en cuatro grandes ejes estratégicos y soportada por una sóli-da comunidad de conocimiento en nanociencias (ver figura 3), a la que contribuirá a reforzar, en la línea marcada por el futuro European Ins-titute of Technology (IET) de la Unión Europea. Esta comunidad tiene un punto singular en la creación y desarrollo del centro CIC nanoGU-NE, en el que se articularán las capacidades tanto de las corporaciones Tecnalia e IK4 como de las universidades.Las actuaciones propuestas dentro de los cuatro ejes estratégicos van dirigidas al fin último del desarrollo empresarial y la difusión de las nano y microtecnologías, tanto en las empresas y sectores actuales

como a través de la creación de nuevas empresas. Las metas que se ha impuesto nanoBASK son de una magnitud acorde al tamaño del reto que supone contribuir a la Euskadi del futuro. La creación hasta el año 2015 de 50 nuevas empresas y 1.000 nuevos empleos (tanto en las nuevas empresas como en las 150 empresas tradicionales que también deben tener actividad en nanotecnología) debe contribuir a generar una cifra de negocio por encima de 1.000 millones de euros en ese mismo año. Ello será posible porque el esfuerzo en I+D ese mismo año por parte del conjunto del sistema ciencia-tecnología-em-presa será del orden de 100 millones de euros, que además habrán contribuido a la formación de 100 nuevos investigadores de alta cua-lificación.Los objetivos, las actuaciones y las cifras hablan por sí solas. El desa-rrollo industrial de Euskadi y su crecimiento como sociedad avanzada no pueden permitirse que no seamos capaces de subir al tren de las nanociencias. La oportunidad es demasiado grande y demasiado tenta-dora como para que la dejemos pasar.

Figura 3. Esquema estratégico de nanoBASK 2015

Page 40: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

CIC nanoGUNE es el primer Centro de

Investigación Cooperativa (CIC) del

País Vasco dedicado a la nanociencia y

la nanotecnología, y uno de los primeros

centros de I+D en nanociencias del

Estado. Este centro está orientado a

cuatro grandes áreas de investigación:

la física de nanoestructuras, los

nanomateriales, los nanodispositivos

y la nanobiotecnología. Contará

inicialmente con cinco grandes

laboratorios, que estarán ubicados en

un edificio singular dentro del campus

de Ibaeta, en San Sebastián. Asimismo,

nanoGUNE coordina los diferentes

agentes que realizan actividades de I+D

en nanociencia y nanotecnología en el

País Vasco.

CIC

nan

oGU

NE

Centros deInvestigaciónCooperativade Euskadi

Page 41: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

41Entorno CIC

CIC nanoGUNE - Proyectos de investigación

para el diseño y producción de materiales y dispositivos a medida. Esta flexibilidad en el diseño podría dar lugar a una gama infinita de presta-ciones con menor consumo de materia y energía y menor generación de residuos, dando, por lo tanto, mucho por poco, más por menos.

CIC nanoGUNEEl País Vasco lleva ya varios años apostando por la investigación en nanociencia y nanotecnología. Durante la última década, un buen nú-mero de agentes de la Red Vasca de Ciencia, Tecnología e Innovación (RVCTI) han ido derivando sus actividades hacia la ciencia de lo nano, creando departamentos y unidades específicas e incorporando nuevos investigadores que permitan generar conocimiento y obtener un ren-dimiento tecnológico de lo que, según parece, puede revolucionar la actividad industrial del siglo XXI. En este sentido, el Departamento de Industria, Comercio y Turismo del Gobierno Vasco ha apostado, dentro del programa Etortek, por la financiación de dos grandes proyectos de

En una conferencia impartida en 1959 bajo el título “There’s plenty of room at the bottom”, el premio Nobel de Física Richard Feynman au-guraba importantes descubrimientos e implicaciones tecnológicas si se pudiera llegar a manipular la materia a nivel atómico y molecular. Pues bien, desde la aparición en los años 80 de la microscopía de efecto túnel (STM) y de fuerza atómica (AFM), dicha manipulación se ha convertido en una realidad. Esto es extraordinariamente importante, ya que en la na-noescala, en la que efectos puramente cuánticos juegan un papel impor-tante, el comportamiento de la materia puede llegar a ser esencialmente diferente e inesperado, abriéndose, por lo tanto, nuevas oportunidades

Nanociencia y nanotecnología

Si bien nunca se sabe lo que nos deparará el futuro, parece que hay consenso sobre el hecho de que el futuro podría ser nano, es decir, fuertemente condicionado por el desarrollo de la nanociencia y la nanotecnología. La nanociencia se dedica al estudio y manipulación de la materia a escala nanométrica (escalas de 0,1-100 nanómetros), esto es, a escala atómica y molecular (el radio del átomo de hidrógeno es aproximadamente de 0,1 nanómetros), con el fin de entender y explotar las novedosas propiedades que exhibe la materia a dicha escala.

José María Pitarke, Director General de CIC nanoGUNE

José María Pitarke, director general de CIC nanoGUNE

CIC nanoGUNE - Proyectos de Investigación

Page 42: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

42 Entorno CIC

investigación estratégica en nanociencia y nanotecnología: el proyecto Nanomateriales y el proyecto Nanotron, que aglutinan a un nutrido nú-mero de agentes de la RVCTI.Por otra parte, el Departamento de Industria, Comercio y Turismo del Gobierno Vasco detectó, en el marco de la estrategia nanoBASK 2015, la necesidad de crear un nuevo Centro de Investigación Cooperativa en nanociencias. Así surgió el CIC nanoGUNE, con personalidad jurídica propia, con la misión de crear un marco eficaz de cooperación desde el cual liderar, coordinar e impulsar la investigación en nanociencias en el País Vasco, en torno a cinco ejes de actuación: investigación de ex-celencia, transferencia de tecnología, formación de alto nivel, coopera-ción internacional y potenciación de una sociedad informada. Además de fomentar la cooperación entre grupos de investigación ya existentes en la RVCTI (que constituyen lo que se suele llamar el nanoGUNE vir-tual), nanoGUNE contará con un núcleo físico de nueva creación, con investigadores e infraestructuras propios, que estará orientado a abrir nuevos espacios de investigación estratégica. La apuesta decidida por la excelencia es el motor de nanoGUNE, lo que se conseguirá con la incorporación de científicos y profesionales que hayan demostrado su liderazgo en diversos ámbitos de investigación y transferencia tecnoló-gica en nanociencia y nanotecnología.

Investigación multidisciplinarCIC nanoGUNE iniciará su andadura orientándose hacia cuatro grandes áreas de investigación estratégica: un núcleo importante de investiga-ción básica orientada en nanoestructuras y estructuras de baja dimen-

CIC nanoGUNE ConsoliderEl CIC nanoGUNE ha sido reconocido como el primer centro Consolider. Dicha denominación es otorgada por el Ministerio de Educación y Ciencia a aquellos centros cuya creación sea impulsada en el marco del programa Consolider-Ingenio 2010. Este programa está dirigido a equipos formados por grupos de investigadores de alto nivel y reconocimiento internacional que lleven a cabo investigaciones muy avanzadas y sean capa-ces de liderar el anclaje del sistema de ciencia y tecnología en el espacio europeo de investigación. El programa de investiga-ción del CIC nanoGUNE que ha merecido este reconocimiento fue presentado por P. M. Etxenike (investigador coordinador) y J. M. Pitarke (coinvestigador coordinador), junto con grupos de investigación del Donostia International Physics Center (DIPC), la Unidad de Física de Materiales CSIC-UPV/EHU, el Instituto Universitario Polymat de la Universidad del País Vas-co y las agrupaciones de Centros Tecnológicos Tecnalia e IK4.

CIC nanoGUNE - Proyectos de Investigación

Átomos de xenón escribiendo las siglas de IBM sobre una superficie de níquel Fuente: IBM

Richard P. Feynman (1918 –1988), premio Nobel de Física 1965

Rohrer y Binnig en 1986.

Page 43: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

43Entorno CIC

CIC nanoGUNE - Proyectos de Investigación

sionalidad, y otras tres áreas más específicas de investigación en (I) nanomateriales y materiales nanoestructurados (síntesis, ensamblado, modelización y nanofabricación de nanopartículas, nanotubos, lámi-nas delgadas y nanocomposites), (II) desarrollo de nanodispositivos y su incidencia en electrónica molecular, espintrónica, nanomagnetismo y nanofotónica, y (III) nanobiotecnología, incluyendo el estudio de na-nopartículas biofuncionales. Se pondrán en marcha, con el citado fin, nuevos laboratorios de microscopía avanzada (con microscopía túnel, de fuerza atómica, óptica de campo cercano y electrónica de barrido y de transmisión de alta resolución), teoría y simulación de nanosiste-mas y materiales complejos (con un centro de computación), ensam-blado y fabricación de nanoestructuras (con nanolitografía, sistemas de deposición y crecimiento de capas y sala blanca), nanofotónica (con sistema fotónico ultrarrápido, difracción y holografía) y nanobiotecno-logía, entre otros.Dado el carácter marcadamente interdisciplinar de la nanociencia y la nanotecnología, nanoGUNE contará con investigadores provenientes de diversas áreas de conocimiento. Se prevé poder contar con físicos, químicos, biólogos e ingenieros que puedan abordar algunos de los re-tos más importantes a los que se enfrenta la ciencia de lo ‘nano’. Se espera que en cinco años se puedan reclutar 40 nuevos investigadores, con el horizonte puesto en unos 100 investigadores para el año 2015. Serán nuestros líderes de grupo, aún por incorporar, quienes definan las investigaciones a realizar. No obstante, podemos citar algunos de los temas que podrán ser objeto de investigación en nanoGUNE: el estudio de las propiedades estructurales y electrónicas de superficies nanoestructuradas, la formación de monocapas autoensambladas de moléculas sobre diferentes sustratos, la manipulación de la luz en di-mensiones inferiores a su longitud de onda, la descripción detallada del transporte molecular en sistemas (tales como dispositivos electro y optomecánicos) de potencial desarrollo tecnológico en nanoelectróni-ca, la comprensión y el ajuste del papel que juegan las interfaces entre fases estructural y químicamente diferentes, la producción a gran esca-

la de nanomateriales y nanodispositivos, la manipulación de biomolé-culas sin desnaturalizarlas, o la formación de nanobioestructuras para la liberación controlada de fármacos.

Un edificio singular en un entorno privilegiadoNos encontramos, sin duda, ante un proyecto complejo. Las instalacio-nes y equipos necesarios para poder abordar investigaciones de exce-lencia y competitivas en nanociencia y nanotecnología necesitan no solamente sofisticados laboratorios, sino un edificio singular que per-mita realizar con éxito ambiciosos experimentos en ausencia de per-turbaciones externas (vibraciones, ruidos, radiaciones electromagné-ticas y suciedad) que podrían impedir alcanzar la precisión deseada en la nanoescala. Tal edificio debe contar con soluciones arquitectónicas de vanguardia, y su construcción debe ser impecable. Se cuenta, para ello, con el asesoramiento de un equipo de arquitectos, pioneros en este tipo de proyectos, que han participado en el diseño de algunos de los laboratorios de nanotecnología más sofisticados del mundo, tales como el Laboratorio de Ciencia e Ingeniería de Interfases de la Univer-sidad de Harvard, el Laboratorio de Microscopía a Escala Atómica de la Universidad de Princeton, el Laboratorio J. C. Davis de Nanotecnología de la Universidad de Cornell o el Centro de Nanotecnología Irlandés, CRANN, situado en el centro de Dublín, cuya inauguración tendrá lugar durante este año (2007).La sede del CIC nanoGUNE se ubicará en San Sebastián, en el campus de Ibaeta de la Universidad del País Vasco. Dicho campus empieza ya a ser conocido, a nivel internacional, en diversos ámbitos de la física y de la química estrechamente relacionados con la nanociencia y la nanotecnología. Así pues, la ubicación en un entorno universitario pri-vilegiado de un centro como nanoGUNE —que aunará la investigación básica con el impulso de nuevas oportunidades de mercado basadas en la nanotecnología— contribuirá sustancialmente a la creación de un marco favorable que elimine barreras entre los mundos académico y empresarial.

Page 44: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

44 Entorno CIC

CIC nanoGUNE - Proyectos de cooperación internacional - NaPa

Por lo que a Euskadi se refiere, los centros tecnológicos Cidetec-IK4, Inasmet-Tecnalia y Tekniker-IK4 participan en la estructura del NaPa, junto con otros 34 miembros (universidades, centros de investigación y empresas) que aportan conjuntamente un potencial laboral de 3.500 personas/mes, además de una vasta experiencia en nanofabricación. Se calcula que los grupos participantes en el proyecto abarcan el 80% del know how de Europa sobre nanolitografía. Coordina el proyecto el Technical Research Centre de Finlandia (VTT), y cuenta con un presu-

Proyectos de cooperación internacional - NaPa

Se trata de un campo crucial en el desarrollo actual y futuro de áreas tan importantes como la micronanoelectrónica, la nanofotónica o la nano-medicina. El proyecto añade a los logros de la tecnología de impresión nuevos valores como procesos a bajo costo y herramientas para cubrir las necesidades del diseño de formas a escala nano. La investigación se centra en tres grandes áreas primarias, denominadas nanoimprint lithography, soft lithography and self-assembling y MEMS-based nanopatterning. Asimismo, se reconocen tres áreas de investigación complementarias, las cuales sostienen el desarrollo de aquellas áreas primarias; se trata de Materiales, Herramientas y Simulación.Una de las preocupaciones del consorcio NaPa desde sus inicios es la incorporación de una gran variedad de centros de investigación, uni-versidades y empresas, de manera que se pueda dar un trasvase flui-do desde la investigación estratégica hacia la explotación comercial.

Nuevas tecnologías de nanofabricaciónJuan A. Alduncín, Cidetec-IK4 e Isabel Obieta, Inasmet-Tecnalia

NaPa, Emerging Nanopatterning Methods es un proyecto europeo donde se integran en un único Proyecto Integrado (IP) dentro del Sexto Programa Marco de la Unión Europea, las nuevas tecnologías de nanolitografía, para anticiparse y dar respuesta a las crecientes necesidades de la técnica, la metrología y el establecimiento de normativas que presentan los nuevos procesos de nanofabricación.

CIC

nan

oGU

NE

Page 45: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

45Entorno CIC

CIC nanoGUNE - Proyectos de cooperación internacional - NaPa

puesto total de 31 millones de euros, financiados por el VI Programa Marco de la Comisión Europea, para un periodo de cuatro años. Parti-cipan, entre otros, el University College Cork (Irlanda), École Polytech-nique Federale de Lausana (Suiza), IBM Research (Suiza), LAAS-CNRS (Francia), Micro Resist Technology GmbH (Berlín), SUSS MicroTec AG (Francia), CSEM (Suiza), Instituto de Microelectrónica de Barcelona-CSIC, CEA (Francia)... hasta un total de 34 organizaciones.Pero NaPa no se dedica únicamente a trabajos de investigación: tam-bién tienen peso propio las actividades de formación, la educación de jóvenes científicos e ingenieros en el campo de la nanolitografía y su divulgación entre el público en general. Todos los años se organiza una Escuela de Verano en Nanofabricación (Panama Summer School) a la que han venido asistiendo regularmente investigadores experimenta-

dos y en formación de los centros vascos participantes. Por otra parte, se está preparando un video divulgativo de cara a acercar a la sociedad en general y a los niños en particular enseñanzas relacionadas con la nanotecnología.El proyecto NaPa se ajusta a los objetivos socioeconómicos de la Co-munidad Europea, y responde a las necesidades de la industria que debe orientarse hacia actividades de mayor valor añadido. Los desa-rrollos tecnológicos que se deriven del NaPa resultarán idóneos para satisfacer las exigencias de los siguientes sectores: información y tele-comunicaciones, farmacia, biotecnología, salud y medicina.

Grandes áreas de investigación en nanolitografíaNanoimprint lithography (litografía de nanoimpresión) ha tenido un rápido desarrollo durante la última década, ofreciendo la posibilidad de grabar superficies poliméricas con diseños que alcanzan detalles de hasta 10 nm, y con el valor añadido de incorporar funcionalización. Sin embargo, carece de suficiente desarrollo en aspectos tales como la me-trología a escala nano y la estandarización. Para cubrir dichos déficits, hacen falta avances en la ciencia de los polímeros estructurados en capas por debajo de los 10-20 nm, especialmente todo lo referido al comportamiento nanorreológico de los polímeros bajo ciclos de tem-peratura-presión o de presión-radiación.La nanoimpresión no sólo ofrece un método económicamente venta-joso para la fabricación de nanotecnología, sino que también contribu-ye a las etapas iniciales para la construcción de materiales artificiales autoorganizados, o para inducir autoorganización por medio de mo-dulaciones químicas o topológicas de superficies. Dos interesantes ejemplos de las aplicaciones que se pueden conseguir con esta técnica son la producción de sistemas ópticos plásticos impresos sobre un po-límero multicapa, y la sustitución de la técnica electron beam por otros sistemas de litografía más económicos y rápidos.Soft-lithography es una excelente vía para imprimir biomoléculas: se-llos con diseños a escala nano han sido impregnados con una “tinta” consistente en disoluciones diluidas de anticuerpos, transferidos en forma de líneas individuales de moléculas. Por otra parte, la combi-nación con la técnica de autoensamblado va a permitir avanzar en la elucidación de mecanismos moleculares, fabricación de biosensores optimizados, biochips y dispositivos de diagnóstico. Ayudará, asimis-mo, a cambiar radicalmente los procesos de elaboración en la industria de semiconductores y fotónica.Los métodos de MEMS-based nanopatterning consisten en litografías con plantilla o bien con uso de micropuntas, como las de un microsco-pio de fuerza atómica. Se trata de la deposición selectiva de materiales sobre una superficie, llegándose a obtener detalles del orden de los 10 nm, junto con otros de más de 10 micras, en una sola etapa de proceso. Tales estructuras depositadas pueden utilizarse directamente, o pue-den transferirse y combinarse con un proceso lift-off o modificarse por procesos de crecimiento o de autoensamblado. Así, se llegan a obtener combinaciones atípicas, que quedan fuera del alcance de la litografía convencional. Una ventaja de estas técnicas es su versatilidad, ya que con sólo cambiar la naturaleza del líquido dispensado se pueden abor-dar diversas aplicaciones, desde la producción de bioarrays (utilizando soluciones de proteínas) hasta dispositivos electrónicos (utilizando lí-quidos conductores o suspensiones de nanopartículas metálicas).

Page 46: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

46 Entorno CIC

CIC nanoGUNE - Proyectos de cooperación internacional - NaPa

Imágenes de Microscopía Electrónica y de Fuerza Atómica de diversas nanoestructuras obtenidas por litografía de nanoimpresión

Participación de la tecnología vasca en NaPaLa participación de centros tecnológicos vascos en el proyecto NaPa es considerable, con un papel activo en diferentes áreas. Concreta-mente, en el subproyecto de materiales hay una estrecha colabora-ción entre Cidetec-IK4 e Inasmet-Tecnalia y varios socios europeos en el desarrollo de materiales avanzados para litografía, tales como polímeros funcionales y tratamientos de superficie adecuados para los nanosistemas. Por otro lado, Tekniker-IK4 participa en el subproyec-to de NIL. Su labor consiste en poner a punto dicha técnica en sus instalaciones de microtecnologías para pasar de la microfabricación a la nanofabricación. Cabe destacar que Inasmet-Tecnalia ha puesto en funcionamiento una sala blanca con el equipamiento necesario para realizar este tipo de procesos mediante una máquina de UV-NIL, pio-nera en el mercado. En el subproyecto de materiales, Cidetec-IK4 coordina el programa de trabajo relacionado con el desarrollo de materiales poliméricos avan-zados adaptados a los requerimientos especiales de la nanolitografía. Así, se está trabajando en la modificación de polímeros comunes, a fin de ajustar sus propiedades físico-químicas (peso molecular, tempera-tura de transición vítrea, funcionalización...) para adecuarlas a aplica-ciones específicas. En este sentido, se ha estudiado el comportamiento del polimetilmetacrilato y de sus copolímeros con diferentes grupos funcionales en composites con nanopartículas fotoluminiscentes, ba-sadas en sulfuros y seleniuros de metales de transición. Tales compo-sites tienen gran interés por su aplicación a dispositivos fotónicos y optoelectrónicos tales como diodos emisores de luz o células solares, que podrían llegar a diseñarse a escala nanométrica. El proyecto en curso ha permitido hallar combinaciones adecuadas de copolímeros y nanopartículas que aúnan una excelente dispersión de los elementos fotoluminiscentes, un reforzamiento de sus propiedades emisoras y un comportamiento óptimo en los ciclos de presión-temperatura exigidos por la nanolitografía.En esta misma línea, Inasmet-Tecnalia está desarrollando la modifi-cación superficial para la introducción de grupos bioactivos median-te plasma para diversas aplicaciones biomédicas: ingeniería tisular, biosensores, dispositivos separadores de proteínas... Cada aplicación está realizada en distintos polímeros. Las modificaciones requieren una optimización de proceso para minimizar los cambios introducidos en el propio dispositivo para asegurar su funcionalidad. Por último, el campo de mayor auge en cuanto a los tratamientos superficiales ha sido la obtención de superficies altamente hidrofóbicas con la aplica-ción de antipegado durante en el proceso de nanoimprint, tanto sobre los sellos poliméricos como sobre las superficies a realizar el pattern. Este efecto se consigue tanto mediante el control de la nanotopografía o rugosidad como mediante la introducción de grupos teflonados en superficie.Resumidamente, los socios del proyecto NaPa con participación de tecnología vasca están llevando a Europa a la vanguardia en el desa-rrollo de nuevas técnicas nanolitográficas. Dichas tecnologías son un claro ejemplo de cómo la inversión pública en nanotecnología resulta de interés estratégico en el desarrollo de sectores industriales como la micronanoelectrónica, la nanofotónica y las ciencias biomédicas.

http://www.phantomsnet.net/NAPA

Page 47: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

47Entorno CIC

Los polímeros nanoestructurados multifuncionales y los nanocompo-sites poliméricos son un área clave para el desarrollo de nuevos dispo-sitivos y estructuras que, en un futuro cercano, pueden ofrecer nuevas funciones en aplicaciones avanzadas. Por otra parte, el desarrollo sos-tenible exigirá materiales basados en el conocimiento y medioambien-talmente óptimos.En esta Red de Excelencia, se tratan de cubrir desde la química de polímeros, su procesamiento y la relación propiedades-nanoestructura hasta las aplicaciones que de todo ello se deriven. Pero el aspecto que se prima es el de la integración de los grupos, trabajando en las distin-

tas áreas de conocimiento, y la movilidad de investigadores para conse-guir la colaboración continuada a través de instrumentos como la crea-ción de un nuevo centro. La Red Nanofun-Poly creó en julio de 2006 el centro europeo ECNP, European Center on Nanostructured Polymers, que cuenta con Inasmet-Tecnalia entre sus fundadores y miembros del

Desarrollo de nanocomposites poliméricos y polímeros nanoestructuradosMaría Jesús Jurado, Inasmet-Tecnalia e Iñaki Mondragon, UPV/EHU

Nanofun-Poly, Nanostructured and functional polymer-based materials and nanocomposites, es una Red de Excelencia del VI PM, financiada por la Comisión Europea. Su objetivo es reforzar la excelencia científica y tecnológica en el campo de polímeros nanoestructurados y nanocomposites poliméricos, agrupando la masa crítica de recursos y conocimientos necesarios para conseguir un liderazgo europeo. Con el fin de superar la fragmentación y promover una integración duradera entre los grupos de I+D+i que integran la red, Nanofun-Poly tiene como principal objetivo a largo plazo la creación de un centro europeo en el campo de los polímeros nanoestructurados y nanocomposites poliméricos.

CIC

nan

oGU

NE

CIC nanoGUNE - Proyectos de cooperación internacional - Nanofun-Poly

Page 48: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

48 Entorno CIC

CIC nanoGUNE - Proyectos de cooperación internacional - Nanofun-Poly

consejo de dirección y tiene su sede en Italia. A través de este centro, se busca perpetuar las colaboraciones ya iniciadas en la Red para po-der obtener resultados duraderos tanto en el ámbito de la investigación como en el de la formación o en el de la transferencia de tecnología. A tal fin, este centro espera contar con el apoyo de industrias –tanto grandes como pequeñas y medianas empresas– que ya han mostrado su interés en los desarrollos que se están llevando a cabo. Una preocupación constante de la Red ha sido el acercamiento del co-nocimiento generado a las empresas y la necesidad de obtener el apoyo de aquellas para encontrar la estrategia a seguir y elegir las líneas de in-vestigación. Para ello, desde el inicio se creó el denominado Industrial Council, en el que participan diversas empresas españolas, entre las que destaca la activa participación de la empresa vizcaína Inauxa, que presentó algunos de sus desarrollos en esta área, como la sustitución del material de una de sus piezas por un composite con nanoarcillas.

Otras aplicaciones a las que se enfoca la investigación, además de las estructurales, son los polímeros funcionales, las aplicaciones magnéti-cas, optoelectrónicas o biomédicas.Esta red está compuesta por 25 grupos de investigación de prácticamen-te todos los países de Europa, además de Turquía, Argentina y EE.UU.. El líder del consorcio es el INSTM italiano, con el apoyo del INSA de Lyon (Francia), y cuenta con otros miembros tales como SICOMP (Sue-cia), FORTH (Grecia), IPF (Alemania), la Universidad de Utrecht o el Instituto de Ciencia y Tecnología de Polímeros (CSIC). Hay dos niveles de compromiso dentro de la Red. Un grupo de diez miembros conforma el denominado Core Group. Conforman el grupo fundador del centro, y sobre ellos recae la responsabilidad de las distintas tareas de gestión –formación, propiedad intelectual, ciclo de vida, comunicación, difusión, transferencia de tecnología– y otros temas tales como género, aspectos éticos, etc. Por otro lado, está el grupo de participantes denominados satélites (entre los que se incluye la Universidad del País Vasco, UPV/EHU, con el grupo ‘Materiales + Tecnologías’, GMT, de la Escuela Téc-nica de Ingenieros de Donostia) que actúan en los apartados puramente científicos y participan activamente en las actividades de movilidad de investigadores y en la propia investigación a través de los subproyectos generados en el seno de la Red.También cabe señalar la organización de diversas actividades de di-fusión; entre otras, un master en nanomateriales, con sede en la Uni-versidad de Peruggia, que destaca por el periodo de prácticas de los estudiantes en diversos centros y empresas como complemento a los estudios.

Participación de la tecnología vasca en Nanofun-PolyLa participación de centros vascos en la Red Nanofun-Poly es conside-rable. Algunos de sus miembros tienen un papel activo en diferentes áreas. Como ya hemos señalado, destaca el liderazgo de Inasmet-Tec-nalia en las labores de transferencia tecnológica y contactos con las empresas del Industrial Council y su activa participación en el nuevo centro creado –ECNP– y sus tareas de responsabilidad en esta misma área dentro de dicho centro. También es de destacar el liderazgo en dos de los subproyectos de investigación que a continuación describimos:

Nanocomposites basados en copolímeros de bloqueEn este subproyecto, liderado por UPV/EHU-GMT, participan activa-mente el INSTM (Italia), el IPF de Dresde (Alemania), el INTEMA (Ar-gentina) y el FORTH (Grecia). Los objetivos son, por una parte, la nanoestructuración de matrices poliméricas de tipo termoplástico o termoestable basándose en la ca-pacidad de autoensamblaje de los copolímeros de bloque que se intro-ducen en las citadas matrices. Un ejemplo de nanoestructuración de una matriz epoxi modificada, con un 30% de un copolímero de bloque y ópticamente transparente, es el de las imágenes de TEM y AFM de la figura 1.Por otra parte, se investiga en la funcionalización tanto de nanopartícu-las magnéticas —MN— como de nanotubos de carbono —CNT— utili-zando diversas vías, que incluyen la introducción reactiva de cadenas poliméricas (grafting from y grafting to) por técnicas de polimeriza-ción avanzadas (ATRP y otras) en las superficies de dichas nanoenti-dades. Pieza fabricada en nanocomposite por Inauxa

MN modificadas por ATRP con PMMA.

Imagen de AFM

MN modificadas después de eliminación de

PMMA por calentamiento a 500ºC

Figura 1. a) Autoensamblaje hexagonal de una matriz epoxi. Microscopía de

transmisión electrónica. b) Microscopía de fuerza atómica

a b

Page 49: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

49Entorno CIC

Esta funcionalización está permitiendo la generación de nanocompo-sites basados en las MN y los CNT funcionalizados y matrices polimé-ricas. La funcionalización permite no sólo el desarrollo de nanocom-posites con las nanoentidades adecuadamente dispersadas a escala nanométrica, sino también, en el caso de la nanoestructuración de la matriz por autoensamblaje basado en la modificación con copolímeros de bloque, la distribución nanoestructurada de las nanoentidades en dominios definidos de diversos tipos (lamelas, cilindros con estructu-ración hexagonal, etc).En la investigación conjunta se trabaja en la comprensión de los funda-mentos que permiten interpretar las propiedades macroscópicas de los nanocomposites en función de la nanoestructuración y de la gigantesca interfaz generada entre las nanoentidades y la matriz de los compuestos.

NanobiomaterialesEl proyecto Nanobiomateriales está liderado por Inasmet-Tecnalia, y también participan en él la Universidad de Lodz (Polonia), el INSTM —en especial, el Politécnico de Turín (Italia)—, el ICTP-CSIC de Ma-drid y el Instituto de Microtecnologías de Bucarest (IMT).El objetivo de dicho proyecto es la aplicación de las investigaciones y desarrollos llevados a cabo entre los socios de la Red Nanofun-Poly, tanto de los polímeros nanoestructurados como de los nanocomposites, al campo de la salud y de los sistemas médicos. Tres son las líneas de investigación que lo conforman, con las siguientes aplicaciones: diagnóstico, liberación de fármacos e ingeniería tisular.·· Crecimiento de nanotubos de carbono sobre superficies

nanoestructuradas para aplicaciones en biosensores (Figura 2).·· Liberación controlada de fármacos en poliuretanos biodegradables

(Figura 3). ·· Ingeniería tisular: polímeros derivados de poli(αhidroxiácidos)

(PLLA) añadiendo nanopartículas tipo nanotubos e hidroxiapatita para soportes de hueso por separación de fases (TIPS o desarrollo de tipos de hidrogel derivados de polietilenglicol por fotopolimeri-zación para control de microgeometrías por procesos de fotolito-grafía). Estos materiales se utilizarán como sustitutos de la córnea (Figura 4).

CIC nanoGUNE - Proyectos de cooperación internacional - Nanofun-Poly

Figura 4. a) PLLA; b), c) y d) Hidrogeles

a b c d

Figura 3. Liberación controlada de fármacos en poliuretanos biodegradables

Figura 2. Estructuras piramidales en silicio

Page 50: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

50 Entorno CIC Sala

Bla

nca

en e

l cen

tro d

e in

vest

igac

ión

Iker

lan.

CIC microGUNE es un Centro de

Investigación Cooperativa en micro/

nanotecnologías, fruto de una alianza

estratégica entre los centros de

investigación Ceit, Ikerlan y Tekniker, las

universidades Mondragon Unibertsitatea

y Tecnun, y el grupo empresarial MCC,

con la colaboración del centro de

microelectrónica IMEC (Bélgica) para la

investigación y desarrollo tecnológico en

micro/nanotecnologías. Su investigación

está orientada hacia las siguientes

áreas: microfluídica y microóptica,

microsensores, micro/nanoingeniería,

plataformas para diagnóstico molecular

y microherramientas para diagnóstico e

intervención clínica.

Cuenta con tres laboratorios (salas

blancas), ubicados en San Sebastián,

Eibar y Mondragón, especializados en

microsensores, micro/nanoingeniería y

microfluídica, respectivamente.

CIC

mic

roG

UN

ECentros deInvestigaciónCooperativade Euskadi

Page 51: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

51Entorno CIC

CIC microGUNE - Proyectos de investigación

que permita detectar in situ Salmonella spp. en muestras clínicas y Campylobacter spp. en muestras de alimentos. A medio plazo, ofrece-rá una novedosa tecnología de microfabricación de verdaderos Lab on a Chip (LOC). (Figura 1). A más largo plazo, el éxito de este proyecto abrirá las puertas a muchas otras aplicaciones, como el diagnóstico de tuberculosis, hepatitis, sida o cáncer. El coste de este LOC será reduci-do, por lo que permitirá a países en vías de desarrollo disponer de una herramienta económica para el diagnóstico de enfermedades de gran impacto (por ejemplo, la malaria). Esta convergencia de conocimientos ya está empezando a dar resulta-dos muy prometedores. A lo largo del primer año hemos desarrollado un LOC dentro del cual realizamos la concentración del patógeno, la lisis, la amplificación del DNA y finalmente la detección. El usuario únicamente debe introducir dos jeringas en el dispositivo: el análisis

El objetivo es desarrollar estos biochips bajo dos premisas: incluir la preparación automática de una muestra real para que este instrumen-to sea utilizado in situ por personal no cualificado, y que sea factible fabricarlos de forma rentable. Para dar solución a este reto se plantea un consorcio en el que convergen conocimientos tan diversos como la biología molecular, la física, las micronanotecnologías y la microelec-trónica.El principal logro a corto plazo será la obtención de un instrumento

Uno de los proyectos del CIC microGUNE consiste en el desarrollo de una nueva tecnología de microfabricación de laboratorios miniaturizados para el diagnóstico clínico. El dispositivo consiste en una unidad portátil y una tarjeta desechable que incorpora un laboratorio dentro de un chip o Lab on a Chip (LOC). El diagnóstico se realiza mediante una reacción en cadena de la polimerasa a tiempo real (qPCR).

Optolabcard: diagnóstico clínico basado en micronanotecnologías y biología molecularJesús M. Ruano-López, coordinador del Proyecto Europeo Optolabcard

Dr. Jesús M. Ruano-López, coordinador del Proyecto Europeo

Optolabcard y coordinador Proyectos Internacionales en

Microtecnologías (Ikerlan)

CIC microGUNE - Proyectos de investigación - Optolabcard

Page 52: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

52 Entorno CIC

usando tecnologías provenientes del procesado de plásticos, ya que per-miten reducir radicalmente el costo de cada LOC y, por lo tanto, hacerlo desechable. No obstante, esta tecnología tiene grandes limitaciones en relación con la integración y compatibilidad con otros componentes, como sensores o actuadores (por ejemplo, calentadores o electrodos). Una tecnología de procesado de polímeros susceptible de incorporar otros materiales o array de actuadores/sensores microfabricados es la laminación. Se están realizando algunos intentos en este campo api-lando capas poliméricas previamente cortadas o microfabricadas. Así,

CIC microGUNE - Proyectos de investigación - Optolabcard

se realiza automáticamente. El resultado obtenido demuestra la viabi-lidad de la tecnología de microfabricación que está siendo desarrolla-da. Dicho proyecto STREP (Specific Targeted Research or Innovation Project) se llevará a cabo en tres años, terminará a finales del 2008 y es liderado por un miembro del CIC microGUNE.

IntroducciónLa aparición de nuevos agentes patógenos y las variaciones de los ya existentes ha ocasionado recientemente serios riesgos a la salud pú-blica, como la gripe aviar, E.coli O157:H7 o el SARS. La gravedad del problema reside en que su impacto y expansión están creciendo de forma dramática, debido al incremento de la movilidad humana y de los productos agroalimentarios en todo el mundo. Esta amenaza se agrava por la falta de instrumentos comerciales portátiles y rápidos para realizar análisis inmediatos y minimizar así la exposición a la con-taminación. De ahí la necesidad de proveer al mercado de este tipo de instrumentación analítica.

Estado del arteEn este apartado, vamos a tratar de situar al lector donde se encuentra este proyecto europeo en el campo de las biomicrotecnologías y en re-lación, además, con otras posibles aplicaciones. Para ello, se presenta el siguiente diagrama (ver figura 2) que recoge las aplicaciones bioló-gicas basadas en las microtecnologías. Estas aplicaciones se pueden dividir en dos grandes grupos: in vivo e in vitro. El grupo in vivo esta dominado por los implantes y los microactuadores. Los dispositivos in vitro son principalmente Lab on a Chip y microarrays. Este proyecto está enmarcado en el campo de los LOC para diagnóstico inmediato (Point of Care) y utiliza una detección óptica. Dentro de los LOC, se han realizado logros interesantes para el termo-ciclado de la PCR, separación de células, detección óptica de la PCR y la lisis celular. Sin embargo, pese a dichas miniaturizaciones, todavía no se ha logrado integrar todas estas funcionalidades en un chip y siempre hay que hacer un tratamiento de la muestra en laboratorios especializa-dos. Éste es uno de los obstáculos que propone solventar el proyecto Optolabcard. En cuanto a la fabricación de dichos LOC, inicialmente se hicieron con silicio, a través de procesos de microfabricación he-redados de la microelectrónica, aunque en los últimos años se están Figura 1: Representación conceptual del Lab on a Chip (LOC)

Figura 2: Aplicaciones de las microtecnologías en biología

Page 53: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

53Entorno CIC

CIC microGUNE - Proyectos de investigación - Optolabcard

Figura 3: Representación esquemática del proceso de microlaminado.

mediante el apilamiento de diferentes capas, es posible generar estruc-turas fluídicas en tres dimensiones. Ésta es, de hecho, la estrategia de microfabricación que está siendo usada en este proyecto.

Objetivo del proyectoEl principal objetivo tecnológico a corto plazo será el desarrollo de un sistema portátil y autónomo de micro-PCR a tiempo real para la detec-ción in situ y en 15 minutos de marcadores genéticos. Los escenarios de uso serán muy variados: ambulatorios, hospitales, empresas de pro-cesado de alimentos, o, incluso, el hogar. Debido a que el LOC que pre-tendemos obtener llevará a cabo una reacción de biología molecular (PCR), el rango de posibles aplicaciones es muy amplio: enfermedades infecciosas, gripe, tuberculosis, hepatitis B y C, enfermedades multigé-nicas, sida y el diagnóstico o prognosis del cáncer. Dentro de este am-plio abanico de posibles aplicaciones, hemos seleccionado una utilidad de gran interés para el mercado, que nos permitirá evaluar el correcto funcionamiento de esta nueva metodología de fabricación. Se trata de la detección de Salmonella spp. en muestras clínicas y Campylobacter spp. en muestras de alimentos.

Reto y estrategiaEl reto fundamental de este proyecto es combinar adecuadamente conocimientos tan diversos como la biología molecular, la física, la ciencia de los materiales y la microelectrónica. Los avances en estos campos han llevado a cada uno de ellos al desarrollo de funciones de dimensiones físicas similares, lo que facilita la convergencia de las ciencias y tecnologías que los sustentan. La convergencia de estas tec-nologías en un LOC es el gran reto de este proyecto. No se trata sólo de garantizar su intercompatibilidad (por ejemplo, superficies inhibido-ras de la reacción PCR, reacciones enzima-materiales): la combinación de estos conocimientos debe aportar una simplificación al desarrollo global de este LOC, obligando a los diferentes socios del proyecto a desarrollar su tarea bajo las restricciones impuestas por otros socios. Esta sencillez aumentará su robustez y fiabilidad, además de posibilitar su fabricación en serie.La estrategia del proyecto combina tres nociones: (I) la utilización de reactivos deshidratados, (II) la detección a tiempo real, y (III) la utili-zación de una tecnología de microfabricación por laminación que per-mitirá producir LOC desechables a gran escala. Así, la deshidratación simplifica extraordinariamente el circuito microfluídico necesario y permitirá el almacenamiento y la distribución de los LOC a temperatura ambiente. Por otro lado, la aplicación de tecnologías de microlaminado permitirá la producción a gran escala. La unidad portátil contendrá la óptica y electrónica necesarias para realizar la lectura por fluorescen-cia en tiempo real e interpretar los resultados. Dicha conjunción de procesos dotará a esta tarjeta de unas prestaciones jamás vistas, y a precios asequibles.

ConsorcioPara alcanzar los objetivos de este proyecto, el primer paso fue crear un consorcio competitivo y coherente. La combinación de los diferentes conocimientos de cada uno de los socios nos permite tener una visión global del problema, esencial —a nuestro entender— para completar con éxito este proyecto. Así, contamos con hospitales, a través de la

Fundación Vasca de Innovación e Investigación Sanitarias (B+I+O Eus-ko Fundazioa, BIOEF), con empresas, como EVGroup (Austria), Micro-resist (Alemania), Silex (Suecia), con centros biotecnológicos, como Gaiker, DFVF (Danish Institute for Food and Veterinary Research, Di-namarca) y centros microtecnológicos, como el MIC (Microelectronic Centre, Dinamarca), ITE (Institute of Electron Technology, Polonia) y el CIC microGUNE. Éste último actúa también como coordinador del proyecto.

ResultadosEsta sección resume los avances realizados hasta la fecha. En primer lugar, hemos desarrollado y patentado una tecnología de microfabri-cación o microlaminado. La figura 3 representa las etapas necesarias del proceso desarrollado. Básicamente, el proceso comienza con la colocación de los electrodos calentadores sobre un sustrato de pírex. Posteriormente, mediante fotolitografía, se transfiere el circuito micro-fluídico deseado sobre los electrodos, utilizando una fotoresina nega-tiva (SU-8, Microresist, Alemania). Una vez fabricados los microcana-les, hay que sellarlos. Para ello, se realiza una segunda fotolitografía de SU-8 sobre un sustrato de baja adherencia, como el kapton, y se pega a la primera, con lo que se fusionan las dos capas de fotoresina. Finalmente, se despega el kapton para dejar un circuito microfluídico

Page 54: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

54 Entorno CIC

de SU-8 sobre un sustrato de pírex. Para terminar, se corta la oblea y se obtienen los LOC individuales. En la foto inferior de la figura 3 se puede ver el LOC de qPCR en el que realizamos la preparación (concentración y lisis), termociclado y detección.Mediante la repetición de este proceso (flecha roja de la figura 3) con-seguimos apilar varias capas de SU-8 y crear todas la microestructuras necesarias para fabricar los componentes necesarios en un LOC.Al utilizar equipamiento estándar, este proceso es transferible a una producción en serie. Por otra parte, como permite pegar capas mi-croestructuradas, las entradas/salidas de los microcanales y los elec-trodos quedan en contacto con el aire, facilitando la conexión fluídica y eléctrica exterior sin necesidad de uniones permanentes. Este hecho facilita el encapsulado y el reemplazo del LOC usado por el nuevo. Tal y como se ve en la figura 4, el encapsulado se basa en dos cápsulas que presionan las entradas/salidas y unos contactos eléctricos retráctiles.El potencial de esta tecnología está siendo demostrado a través de los ensayos realizados con el LOC qPCR. En uno de estos ensayos se han utilizado muestras clínicas cedidas por los hospitales a través de BIOEF. Se ha realizado la concentración, lisis y amplificación en tiempo real de la Salmonella spp. en 18 minutos, todo ello dentro del LOC (Figura 5).Fuera de los objetivos de este proyecto y dentro de las actividades del CIC microGUNE, hemos fabricado otros LOC, como, por ejemplo, uno para realizar electroforesis capilar de proteínas y de DNA con gel y sin gel. En la figura 6 se puede observar la foto del dispositivo y el resul-tado obtenido al separar dos proteínas en el LOC en tres minutos y sin utilizar gel (Figura 6).

ConclusiónLos recientes avances realizados por los socios del consorcio en el cam-po de la microfluídica, óptica y miniaturización de las técnicas rápidas de análisis corroboran que esta tecnología de microfabricación ofrece una gran oportunidad para el desarrollo de LOC. Invitamos a investiga-dores que trabajen con otros ensayos biológicos a que contacten con nosotros para analizar la posibilidad de miniaturizar y automatizar su laboratorio.

www.optolabcard.com

Figura 4: Fotografías del encapsulado y del LOC

Figura 6: Fotos del LOC de electroforesis capilar y gráfico de la separación de dos proteínas, realizada en tres minutos, sin la utilización de gel.

CIC microGUNE - Proyectos de investigación - Optolabcard

Figura 5: Foto del LOC encapsulado introduciéndole la muestra, y resultado del ensayo en el que se realiza la concentración, lisis y amplificación en tiempo real de la Salmonella spp. en 18 minutos, todo ello dentro del LOC.

Volta

je [V

]

Tiempo [s]

0 200 400 600 800 1000 1200

10,0

9,5

9,0

8,5

8,0

7,5

7,0

8,5

CT=19

Linea Base

1ml de muestra real

Tiempo de separación [s]

Seña

l del

det

ctor

(mV)

Page 55: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

XXXXXX

55Entorno CIC

Em

pres

a va

sca

Eus

kal e

npre

sa

Inauguración de CIC biomaGUNEEl pasado 13 de diciembre, el lehendakari Juan Jose Ibarretxe inauguró oficialmente el Centro de Investigación Cooperativa en Biomateriales CIC biomaGUNE. En el acto estuvieron presentes el diputado general de Guipúzcoa, Joxe Joan Gonzalez de Txabarri, la consejera de Industria, Comercio y Turismo, Ana Agirre, y representantes de las universidades, empresa y comunidad científica de Euskadi. Junto con ellos se encontraban el director general de CIC bioGUNE y CIC biomaGUNE, José M Mato, y el director científico de CIC biomaGUNE, Manuel Martín Lomas.

El centro cuenta con dos unidades de investigación, la Unidad de Nanomateria-

les Biofuncionales y la Unidad de Biosuperficies, a las que se sumará la Unidad

de Imagen Molecular, que se convertirá (cuando entre en

funcionamiento, en 2008) en una de las mayores platafor-

mas tecnológicas en su campo de toda la Unión Europea.

La instalación ha sido incluida por el gobierno español en el

programa de instalaciones científicas singulares que se van

a construir en el estado español en los próximos años.

Este reconocimiento viene de la mano de la Comisión Inter-

ministerial de Ciencia y Tecnología, asesorada por un comi-

té presidido por el científico Avelino Corma. La Unidad de

Imagen Molecular se une a otras 22 instalaciones científicas

que han obtenido el carácter de infraestructuras singulares,

cuya construcción está prevista para el año 2010.

CIC biomaGUNEren inaugurazioaPasa den abenduaren 13 an inauguratu zuen Juan Jose Ibarretxe lehendakariak CIC biomaGUNE Biomaterialetako Ikerketa Zentro Kooperatiboa. Joxe Joan Gonzalez de Txabarri, Gipuzkoako ahaldun nagusia, Ana Agirre Industria, Merkataritza eta Turismoko sailburua, eta Euskadiko enpresa, unibertsitate eta ikerketa-alorreko hainbat ordezkari bildu ziren. Han ziren, halaber, CIC bioGUNE eta CIC biomaGUNEko zuzendari nagusia, José M Mato, eta CIC biomaGUNEko zuzendari zientifikoa, Manuel Martín Lomas.

Bi ikerketa unitate ditu zentroak: Nanomaterial Biofuntzionalena eta Biogaina-

zalena, eta Irudi Molekularraren Unitatea gehituko zaie laster. Prest dagoenean,

2008 an, Europako Batasuneko teknologia-platafor-

marik handienetako bat izango da, bere alorrean.

Estatu espainiarrean datozen urteetan eraikiko di-

ren instalazio zientifiko berezien programan sartu

du Espainiako gobernuak.

Zientzia eta Teknologiako Ministerioarteko Batzor-

deak hartutako erabakia izan da, Avelino Corma

zientzialariak zuzentzen duen batzorde batek la-

gunduta. Beraz, Irudi Molekularraren Unitateak bat

egingo du azpiegitura bereziko izaera lortu duten

beste 22 instalazio zientifikoekin. Horiek guztiak

2010. urterako eraikita egotea espero da.

Page 56: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

56 bioBASK

Reanibex-200, nuevo modelo de desfibrilador externo automatizadoCada año, miles de personas sufren un paro cardíaco. Sus posibilidades de supervivencia son mucho mayores cuanto más rápido se les suministra una descarga de desfibrilación, ya que éstas decrecen un 10% cada minuto que pasa desde que se produce el ataque cardíaco.

El desarrollo de algoritmos automáticos de detección de arritmias ha hecho po-

sible, recientemente, la creación de los desfibriladores externos automatizados

(DEAs), unos aparatos con capacidad para leer e inter-

pretar un electrocardiograma (ECG) y decidir cuándo es

necesario aplicar una desfibrilación a alguien. Se trata de

una importante innovación tecnológica en el tratamiento

precoz de la parada cardíaca extrahospitalaria.

La empresa especializada en el diseño y desarrollo de

desfibriladores OSATU, S. COOP. lanza en febrero la nue-

va versión de su DEA, el modelo Reanibex-200, orienta-

da no solo a los servicios médicos y de urgencias, sino

también al público en general, de acuerdo con la actual

tendencia de crear “espacios cardioprotegidos” para lle-

gar mas rápidamente al paciente.

Renibex-200, kanpoko desfibrilatzaile automatizatu berriaUrtero, milaka lagunek izaten dute bihotz-gelditzeren bat. Pertsona horien bizirauteko aukerak asko handitzen dira geldialditik ateratzeko desfibrilazio-deskarga bat ahalik eta azkarren ematen bazaie. Izan ere, bizirauteko aukerak % 10 jaisten dira geldialdi ondorengo minutu bakoitzeko.

Azkenaldian, arritmiak detektatzeko garatu diren algoritmo automatikoei esker,

kanpoko desfibrilatzaile automatizatuak egin dira (KDA). Gailu horiek elek-

trokardiogramak irakurri eta interpretatzeko gai dira eta,

hala, pertsona bat noiz desfibrilatu behar den erabakitzen

dute. Berrikuntza teknologiko handia izan da hori ospita-

letatik kanpo gertatzen diren bihotz-gelditzeen tratamen-

du goiztiarretarako.

Hain zuzen ere, desfibrilatzaileak diseinatu eta garatzen

dituen OSATU S. COOP. enpresak otsailean bere KDAren

bertsio berria merkaturatu du, Reanibex-200 modeloa.

Modelo hori ez da soilik zerbitzu mediko eta larrialdietan

erabiliko, baizik eta askoz ere eremu gehiagotan, biho-

tz-babeseko eremuak sortzeko zabaltzen ari den joerari

jarraituz gaixoa ahalik eta azkarren arta dezaten.

BTI recibe el Premio Príncipe Felipe a la Innovación Tecnológica El dr. Eduardo Anitua, director científico de BTI Biotechnology Institute, recogió el pasado 10 de abril el Premio Príncipe Felipe a la Innovación Tecnológica en la modalidad de pymes. El jurado destacó a la empresa vitoriana “porque desde su creación en 2002, desarrolla una importante actividad en I+D en el desarrollo de nuevos productos, nuevos materiales y nuevos procesos de obtención de materiales biológicos con utilización de diversas tecnologías, entre ellas la de cultivos celulares y de tejidos. Es una empresa pionera en su campo”

El gran esfuerzo realizado por BTI® en I+D ha permitido desarrollar 15 patentes

propias y lograr diversas certificaciones de calidad y producto. Otro dato des-

tacable ha sido su rápida y eficaz estrategia de internacionalización, contando

a día de hoy con sólidas filiales en Estados Unidos, México, Alemania, Italia y

Portugal y con distribuidores en numerosos países, como India, Irán, Japón,

Taiwán, Grecia, Rusia, etc.

Tantos años de labor investigadora han dado sus frutos, convirtiendo a BTI

Biotechnology Institute en el principal sistema de implantes dentales de origen

español, y uno de los principales del panorama internacional, así como en una

empresa de referencia en materia de regeneración tisular y en utilización de

factores de crecimiento antólogo en diferentes áreas de la medicina.

BTIk Berrikuntza Teknologikoaren Felipe Printzea Saria eskuratu duEduardo Anitua doktoreak, BTI Biotechnology Instituteko zuzendari teknikoak, enpresa txiki eta ertainen alorrean Berrikuntza Teknologikoaren Felipe Printzea Saria jaso zuen pasa den apirilaren 10ean. Epaimahaiak gasteiztar enpresa nabarmendu zuen, “2002. urtetik hona I+Gan jarduera handia izan duelako, hain zuzen ere, produktu eta material berriak garatuz eta hainbat teknologia erabiliz —horien artean hazkuntza zelularrak eta ehunen hazkuntzak— material biologiko berriak lortzen. Enpresa berritzailea da bere arloan.”

I+Gan egindako ahaleginari esker, 15 patente eta hainbat kalitate- eta produktu-

ziurtagiri eskuratu ditu BTIk. Aipatzeko moduko beste datu bat da nazioarte-

ratze-estrategia azkarra eta eraginkorra izan duela: Ameriketako Estatu Batue-

tan, Mexikon, Alemanian, Italian eta Portugalen ordezkaritzak ditu, eta beste

hainbat herrialdetan (Indian, Iranen, Japonian, Taiwanen, Grezian, Errusian eta

abarretan), banatzaileak.

Urteetako ikerketa-lan horrek guztiak ekarri du emaitzarik: BTI Biotechnolo-

gy Institute espainiar jatorriko hortz-inplanteen sistemarik nagusiena da, eta

nazioarteko nagusienetakoa. Aldi berean, ehunen leheneratzean eta medikunt-

zako hainbat arlotan hazkuntza-faktore antologoen erabileran erreferentziazko

enpresa da.

Page 57: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

57CICNetwork 57bioBASK

Enrique Zuazua, Premio Euskadi de Investigación 2006 El catedrático de Matemática Aplicada de la Universidad Autónoma de Madrid Enrique Zuazua Iriondo ha sido galardonado con el Premio Euskadi de Investigación 2006 en la modalidad de Ciencia y Tecnología.

El jurado ha considerado sus relevantes contribuciones a la teoría

de ecuaciones en derivadas parciales y a la teoría de control y sus

aplicaciones al diseño óptico en aeronáutica, resaltando la gran

repercusión internacional alcanzada por sus aportaciones. Zua-

zua estudió en la UPV, donde se licenció (1984) en matemáticas,

obteniendo posteriormente el doctorado, por esta misma univer-

sidad, en 1987. En la actualidad, ocupa una cátedra del Plan Es-

tratégico de la Universidad Autónoma de Madrid, actividad que

compagina con la divulgación de las matemáticas. Es miembro

de la Sociedad Española de Matemática Aplicada (SEMA), y diri-

ge el Instituto IMDEA Matemáticas de la Comunidad de Madrid

de reciente creación.

Enrique Zuazua, 2006ko Euskadi Ikerketa Saria Zientzia eta Teknologia arloko 2006ko Euskadi Ikerketa Saria Enrique Zuazua Iriondok jaso du. Matematika Aplikatuan katedraduna da Zuazua Madrilgo Unibertsitate Autonomoan.

Deribatu partzialen gaineko ekuazioen teorian eta kontrol-

teorian egindako ekarpenak eta horiek aeronautikaren di-

seinu optikoan izandako aplikazioak nabarmendu ditu epai-

mahaiak. Batez ere, ekarpen horiek guztiek nazioartean izan

duten oihartzuna azpimarratu dute. EHUn ikasi zuen Zuazuak;

1984 an, matematikan lizentziatu zen, eta, ondoren, 1987 an,

doktore egin zen unibertsitate berean. Gaur egun, Madrilgo

Unibertsitate Autonomoko Plan Estrategikoan katedra du.

Horrez gain, matematikaren dibulgazioan ere aritzen da. Ma-

tematika Aplikatuaren Espainiako Elkarteko (SEMA) kide da,

eta berriki sortu den Madrilgo IMDEA Matematika Institutuko

zuzendari.

Empresa vasca - Euskal enpresa

Bial-Arístegui desarrolla alérgenos recombinantes para el diagnóstico y tratamiento de alergiasLa empresa Bial Industrial Farmacéutica, S.A. (Bial-Arístegui), ubicada en Bilbao, es una de las pocas compañías del mundo que desarrolla y comercializa alérgenos recombinantes –sustitutos avanzados de los extractos alergénicos convencionales– de origen natural, con una reproducibilidad y pureza muy superiores a los que hoy día se utilizan en la práctica clínica.

Actualmente, vende este tipo de moléculas a compañías

punteras de varios países europeos, como Austria e Italia,

que trabajan en el área del diagnóstico in vitro, y también

como reactivo de investigación en diversos laboratorios de

alergia nacionales e internacionales. A medio plazo, tam-

bién está previsto utilizar los alérgenos recombinantes para

fines terapéuticos en inmunoterapia de pacientes alérgicos.

La empresa, perteneciente al grupo Bial, también desarrolla

en sus instalaciones de Bilbao otras moléculas de tipo bio-

tecnológico, como es el caso de los anticuerpos monoclo-

nales, que se utilizan para poner a punto enzimoinmunoen-

sayos útiles para estimar cuantitativamente la presencia de

alérgenos clave en los extractos naturales comercializados

con fines diagnósticos y terapéuticos.

Bial-Arísteguik alergiak diagnostikatu eta tratatzeko alergeno errekonbinagarriak garatzen dituBilboko Bial Industrial Farmacéutica S.A. enpresak alergeno errekonbinagarriak garatu eta merkaturatzen ditu. Mundu osoan, oso enpresa gutxik dihardu zeregin horretan. Alergeno errekonbinagarri horiek alergien ohiko estraktuen ordezko aurreratuak dira. Jatorri naturala dute, eta, praktika klinikoan erabiltzen direnekin alderatuta, ugalkortasun eta purutasun askoz handiagoa.

In vitro diagnostikoak egiten dituzten hainbat he-

rrialdetako –adibidez, Austria eta Italia– puntako

enpresei eta alergiak ikertzen dituzten nazioarteko

eta bertako laborategiei saltzen dizkie molekula

horiek, erreaktibo gisara erabiltzeko. Epe ertaine-

ra, immunoterapia-tratamenduetan ere erabili nahi

dituzte alergeno horiek, alergiak dituzten gaixoak

tratatzeko. Beste molekula bioteknologiko batzuk

ere garatzen ditu Bialek; antigorputz monoklonalak,

adibidez. Diagnostikorako eta helburu terapeutiko-

rako merkaturatutako estraktu naturaletan dauden

alergenoen kantitatea kalkulatzeko baliagarri diren

entzimen immunoentseguak prestatzeko erabiltzen

dira antigorputz horiek.

Page 58: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

58 bioBASK

Empresa vasca - Euskal enpresa

DRO adquiere derecho de uso sobre el sistema de expresión CASCADELa empresa Donostiarra DRO Biosystems y la sevillana Biomedal han alcanzado recientemente un acuerdo por el que DRO adquiere derecho de uso sobre el sistema de expresión CASCADE.

Este acuerdo permitirá a DRO incorporar dicho

sistema a sus procesos de producción de biote-

rapéuticos (substancias terapéuticas proceden-

tes de organismos vivos), con lo que aumentará

su capacidad de desarrollo de procesos y su

independencia respecto a otros sistemas de ex-

presión existentes en el mercado.

CASCADE es un sistema de expresión para Es-

cherichia coli, caracterizado por su alta regula-

ción, lo que disminuye notablemente problemas

asociados a la formación de cuerpos de inclu-

sión y mejora la solubilidad de la proteína dia-

na. Además, el bajo coste de su inductor lo convierte en un sistema ideal cuando

se trata de llevar a cabo escalados en la producción de proteínas recombinantes,

lo que aumentará la competitividad de DRO en el sector.

CASCADE programa erabiltzeko baimena eskuratu du DROkDonostiako DRO Biosystems eta Sevillako Biomedal enpresek hitzarmena sinatu dute, berriki, DROk CASCADE espresio-sistema erabiltzeko.

Hitzarmen hori dela medio, sistema hori subs-

tantzia bioterapeutikoen (bizidunetatik erauzi-

tako substantzia terapeutikoak) ekoizteko era-

biliko du DROk. Ondorioz, prozesuak garatzeko

gaitasuna eta merkatuko gainerako espresio-

sistemekiko independentzia areagotu egingo

ditu.

CASCADE Escherichia coli-rako prestatutako

espresio-sistema bat da. Erregulazio bikaina du

ezaugarri nagusia. Kanpoko gorputzen sarrerak

eragindako arazoak nabarmen gutxitzen ditu

horrek, eta jomuga-proteinaren disolbagarrita-

suna hobetzen. Bestalde, eragilearen kostu txikia dela eta, sistema oso egokia

da proteina errekonbinagarrien ekoizpenean mailakatzeak egin behar direneta-

rako. DROren lehiakortasuna handitu egingo du horrek.

Abyntek Biopharma: anticuerpos a medida en el Parque Tecnológico de BizkaiaAbyntek Biopharma S.L., empresa perteneciente al grupo empresarial formado por Progenika Biopharma S.A. y Proteomika S.L., inicia su actividad en el sector de la Biotecnología, poniendo a disposición del mercado el desarrollo de anticuerpos a medida (policlonales de conejo y monoclonales de ratón) y la comercialización de anticuerpos de catálogo. La producción y purificación de antígenos completará en un futuro próximo la cartera de servicios básicos de Abyntek.

Una de las principales señas de identidad de Abyntek es su fir-

me apuesta por la I+D+i, que se inicia con la incorporación de

una línea de investigación basada en el desarrollo de sistemas

de diagnóstico en el ámbito de las enfermedades infecciosas.

Abyntek cuenta con un equipo humano cualificado y con la

infraestructura tecnológica necesaria para garantizar a la co-

munidad científica un servicio de calidad basado en la res-

ponsabilidad, la cercanía y la comunicación constante.

Abyntek Biopharma: neurrira egindako antigorputzak Bizkaiko Parke Teknologikoan

Progenika Biopharma S.A. eta Proteomika S.L.-ren taldeko enpresa da Abyntek Biopharma S.L., eta orain gutxi hasi da lanean bioteknologiaren sektorean. Horretarako, neurrira garatutako antigorputzak (untxien poliklonalak eta saguen monoklonalak) eta katalogoko antigorputzak merkaturatu ditu. Antigenoen ekoizpena eta purifikazioa ere eskainiko ditu laster Abyntek-ek.

Abyntek-en ezaugarri nagusietako bat da I+G+B alorrean

egiten duen lana. Hain zuzen ere, ikerketa-lerro bat abia-

tu du gaixotasun infekziosoak diagnostikatzeko sistemak

garatzeko.

Profesional ongi prestatuak ditu Abyntek-ek, baita

azpiegitura teknologiko egokia ere komunitate zienti-

fikoari kalitatezko zerbitzuak eskaintzeko, betiere ar-

dura, gertutasuna eta etengabeko komunikazioa oinarri

direla.

Page 59: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

59CICNetwork

Empresa vasca - Euskal enpresa

59bioBASK

CIC bioGUNE inaugura la Unidad de Biología Estructural, única en el Estado El Centro de Investigación Cooperativa CIC bioGUNE inauguró el pasado 8 de febrero la plataforma de Biología Estructural, una instalación única en el Estado y puntera en Europa, que ha supuesto una inversión superior a los 13 millones de euros.

Dotada de los más modernos equipos de resonancia magnética nuclear, micros-

copía electrónica y difracción de rayos X, la plataforma estará a disposición de

la comunidad científica para estimular la utilización de las técnicas más novedo-

sas de biología estructural en los investigadores y empresas del País Vasco.

Tanto en el ámbito nacional como en el europeo, no existe ningún otro centro de

investigación que integre estas tres técnicas

en un mismo centro.

La instalación, ubicada en el centro de in-

vestigación CIC bioGUNE del Parque Tecno-

lógico de Bizkaia, fue inaugurada el 8 de fe-

brero en un acto institucional presidido por

el lehendakari Juan Jose Ibarretxe y contó

con la presencia, entre otras autoridades,

de tres consejeros del gobierno vasco, de

la directora general de Política Tecnológica

del gobierno español –Carmen Andrade– y

del director general de CIC bioGUNE y CIC

biomaGUNE, José María Mato.

CIC bioGUNEk Biologia Estrukturalaren Unitatea zabaldu du, bakarra Espainian CIC bioGUNE Ikerkuntza Kooperatiboko Zentroak Biologia Estrukturaleko plataforma zabaldu zuen pasa den otsailaren 8 an. Instalazio bakarra da Espainian, eta Europako puntakoenetakoa, eta 13 milioi eurotik gora kostatu da.

Erresonantzia magnetiko nuklearra, mikroskopia elektronikoa eta x izpien di-

frakziorako ekipamendu modernoenak ditu plataformak, eta zientzialarien es-

kura egongo da, EAEko ikerlari eta enpresek biologia estrukturaleko teknika

berrienak erabil ditzaten.

Ez dago hiru teknika horiek instalazio berberetan dituen beste zentrorik, ez Es-

painian, ez Europan.

Bizkaiko Teknologia Parkeko CIC

bioGUNE ikerketa-zentroan dago

instalazioa, eta otsailaren 8 an zabal-

du zuten. Inaugurazio-ekitaldiaren

buru Juan Jose Ibarretxe lehendaka-

ria izan zen, eta, han izan ziren, bes-

teak beste, Eusko Jaurlaritzako hiru

sailburu, Espainiako gobernuko Tek-

nologia Politikako zuzendari nagusi

Carmen Andrade, eta CIC bioGUNE

eta CIC biomaGUNEko zuzendari na-

gusi Jose Maria Mato.

NorayBio participa en el proyecto europeo GennetecLa empresa bioinformática NorayBio participa en un nuevo proyecto europeo, dentro del programa IST (Information Society Technologies).

El objetivo del proyecto GENNETEC (GENetic

NETworks: Emergence and Complexity), engloba-

do en el VI Programa Marco, es el desarrollo de me-

todologías para la detección de propiedades emer-

gentes en sistemas complejos. Estas metodologías

se aplicarán a un caso de estudio concreto en trans-

criptómica: el modelo solenoidal del plegamiento

de DNA de Képès, coordinador del proyecto y co-

director del Epigenomics Program del Genopole®.

La aportación de NorayBio al proyecto consiste en

una aplicación software basada en redes neurona-

les y aprendizaje automático (machine learning techniques), para la validación

de las hipótesis formuladas en el modelo. En este proyecto, NorayBio trabaja

con reconocidos científicos de centros de investigación y universidades de paí-

ses como Francia, Italia y Portugal.

NorayBiok Europako Gennetec proiektuan parte hartzen duNorayBio enpresa bioinformatikoak informazioaren gizartearen teknologien (IST) programako proiektu berri batean parte hartzen du.

VI. Esparru Programako GENNETEC (GENetic

NETworks: Emergence and Complexity) proiek-

tuaren helburua da sistema konplexuen propietate

berriak detektatzeko metodologiak garatzea. Me-

todologia horiek transkriptomiako ikerketa-kasu

jakin bati aplikatuko zaizkio: Képès-en DNAren

tolesdura-eredu solenoidalari. Françoise Képès

bera da Epigenomics Program del Genopole®

proiektuaren koordinatzailea eta zuzendarikidea.

NorayBio-k sare neuronaletan eta ikasketa auto-

matikoan (machine learning techniques) oinarri-

tutako software-aplikazio bat garatu du proiekturako, ereduan formulatutako

hipotesiak egiaztatzeko. Proiektu horretan, Frantziako, Italiako eta Portugalgo

–besteak beste– zentro teknologikoetako eta unibertsitatetako ikertzaile ezagu-

nekin lan egiten du NorayBiok.

Page 60: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

60 CICNetwork

XXXXXX Actualidad

Si esta celebración es posible es porque hemos tenido la suerte de nacer y vivir en España, un país del Primer Mundo, que posee una extraordinaria riqueza histórica y cultural, y cuya calidad de vida es muy elevada; un país en el que el apoyo a la investigación ha estado íntimamente ligado al desarrollo de la democracia, desde el momento mismo de la creación de la Junta para la Ampliación de Estudios, con un decreto que la Gaceta de Madrid publicó pasado mañana hace exac-tamente un siglo. Tal es la situación en que ha fructificado nuestro trabajo, aunque a ve-ces —hay que reconocerlo— no tan vigorosamente como hubiéramos deseado. Desgraciadamente, no son éstas las condiciones en que vive la mayor parte de los seres humanos, ni parece que se vayan a lograr en un futuro próximo. Por ello, los cinco galardonados queremos compar-tir con ustedes algunas de nuestras inquietudes, como investigadores

y como ciudadanos, conscientes de que el siglo XXI ha de afrontar una serie de retos, de cuya solución depende que logremos o no construir una sociedad del bienestar global y sostenible a largo plazo. El primero se deriva de las diferencias tan enormes que separan a los países del Primer Mundo de los del Tercero, en cuanto a disponibilida-des de alimentos, acceso a la educación y atención a la salud. Produce un profundo dolor pensar que un tercio de la humanidad haya de vivir con menos de un euro diario y que, como consecuencia de ello, mueran prematuramente unas 30.000 personas todos los días. Por otra parte, muchas regiones del planeta se han superpoblado, lo cual, junto a la desmedida avidez de los países tecnológicamente avan-zados por los recursos que proporciona la biosfera, está dañando o destruyendo de forma irreversible la mayoría de los ecosistemas. Así, van desapareciendo los bosques —especialmente en los países tropica-les—, se agotan los recursos pesqueros, se urbaniza irracionalmente el territorio, y el agua se va convirtiendo en un bien cada vez más escaso. El daño ya ocasionado a los ecosistemas amenaza la vida de inconta-bles personas, a la vez que provoca la extinción de un gran número de especies vivientes, de ese tesoro único creado paso a paso durante millones de años de evolución.

Act

ual

idad

C

ient

ífica

La ciencia, ante el reto del bienestar globalPremios Nacionales de Investigación 2006

Los ganadores del Premio Nacional de Investigación 2006 abogan por iniciativas científicas paneuropeas para lograr un progreso sostenible en un discurso pronunciado el pasado 16 de enero con motivo de la entrega de los Premios Nacionales de Investigación 2006

Juan Modolell Mainou, premio Nacional de Biología 2006

Joan Rodés Teixidor, premio Nacional de Medicina 2006

Mateo Valero Cortés, premio Nacional de Ingeniería 2006

Andreu Mas-Colell, premio Nacional de Derecho y Ciencias Económicas y Sociales 2006

José Antonio Pascual Rodríguez, premio Nacional de Humanidades 2006

Page 61: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

61CICNetwork

A los dos retos anteriores se ha de añadir un tercero, referido a la des-mesura con que se acude a las energías contaminantes y no renovables, como el petróleo o el carbón, que provocan un efecto invernadero, cu-yos impactos sobre el clima y la economía mundial se prevén de extre-ma gravedad.La respuesta que hemos de dar a estos retos nos obliga a adoptar cam-bios radicales en nuestra manera de vivir, pues, de seguir actuando como venimos haciéndolo, se necesitarían los recursos de tres plane-tas para que todos los seres humanos pudieran tener un nivel de con-sumo semejante al nuestro. Y, aún así, con un desarrollo no sostenible, deberíamos añadir planetas y más planetas, a medida que fuéramos esquilmando los anteriores. Al ser solo la Tierra nuestro único hábitat previsible, ahora y en el futuro, debemos cuidarlo y vivir armónicamen-te en él, junto con una miríada de otros seres vivos, manteniendo una biosfera capaz de sostenernos. Tenemos la obligación de ser mucho más eficientes en el uso de los recursos. El Protocolo de Kyoto es un primer paso importante, por li-mitar no solo las emisiones de dióxido de carbono, sino por tratar de crear una ética del ahorro y por penalizar el despilfarro. Se trata, sin embargo, de una ética que todavía no ha calado suficientemente en nuestra sociedad, como lo demuestra el éxito de ventas de vehículos de gran potencia, innecesarios para viajar a las velocidades permiti-das. Hemos de abandonar una manera de actuar tan torpe como ésta, y favorecer la generación de energía de fuentes renovables; entre otras, la solar, la más abundante de todas, pero todavía poco atractiva por la baja eficiencia de los sistemas de captación. Incluso la energía nuclear, cuyos niveles de seguridad han aumentado significativamente después de los trágicos accidentes del pasado, puede desempeñar un papel im-portante para facilitar la transición al uso generalizado de las fuentes renovables y, más en el futuro, al de la fusión nuclear. Prescindir de este tipo de energía y seguir aumentando a pasos agigantados las emi-siones de dióxido de carbono es una estrategia equivocada. Hace un par de meses se publicó el “Informe Stern”, que calcula que el coste de no hacer nada es unas veinte veces superior al que supondría tomar las medidas para atajar el problema. Puede discutirse la exactitud de las cifras, pero está claro que el cambio climático es costosísimo. Otras ciencias o tecnologías sujetas a intenso debate público son la química y la ingeniería genética. En cuanto a la primera, las malas

Actualidad Científica - Premios Nacionales de Investigación 2006

prácticas utilizadas en ocasiones por la industria química han segado vidas y han intoxicado numerosos ecosistemas; pero nuestra sociedad no se concibe sin la infinidad de productos que la tecnología química ofrece y ofrecerá en el futuro. La química puede ser mucho más limpia y ayudarnos a controlar la polución actual. En cuanto a la ingeniería genética, existe una percepción negativa generalizada, y “transgénico” es casi sinónimo de malo o dañino, lo que no tiene fundamento cientí-fico sólido alguno. Desafortunadamente, algunos de los primeros pro-ductos derivados de este tipo de técnicas han sido plantas resistentes a herbicidas, lo que puede favorecer el uso indiscriminado de dichos productos. No deberíamos olvidar que los “organismos genéticamente modificados” han estado con nosotros desde la invención de la agricul-tura y la ganadería, y que la transgénesis entre especies distintas es, en muchos casos, un proceso natural. El desarrollo de variedades que puedan fructificar en ambientes marginales, que posean mejores cua-lidades nutritivas o que ofrezcan un mayor rendimiento es éticamente correcto en un mundo donde la hambruna es la condición normal para un tercio de la humanidad.

Investigar, conocer, aplicarEste tipo de ejemplos marca las vías que hemos de recorrer. En to-das ellas subyace el mismo imperativo: investigar, primero; conocer, después, y finalmente, aplicar los conocimientos adquiridos. La inves-tigación debe potenciarse en todas las áreas del saber fundamental y del desarrollo tecnológico, para integrar los conocimientos de distintas áreas. Así, se irán abriendo y cultivando nuevos campos, como la bio-logía sintética, la biocomputación, la nanotecnología, la creación de materiales avanzados, el diseño de fármacos... La política de aumen-tar los fondos para investigación y desarrollo al 2% del PIB para 2010, la creación de centros e infraestructuras organizados con las miras puestas en la excelencia científica, la reestructuración del CSIC, así como el incremento de investigadores que ha tenido lugar en España en los últimos años son actuaciones muy importantes realizadas en la dirección correcta. Animamos al Gobierno, al Ministerio de Educación y Ciencia y a los responsables de la política científica y tecnológica de las CC.AA. a continuar con este apoyo decidido a la I+D, coordinando esfuerzos para lograr una mayor eficacia, a la vez que incrementando los recursos. Los acuerdos alcanzados la semana pasada en la confe-rencia de presidentes son un paso adelante muy positivo en el camino que tenemos que recorrer.Ciertamente, las soluciones que se han de adoptar para crear una con-ciencia ética de la necesidad de cuidar de nuestro planeta han de ser globales. Aisladamente, cada país puede hacer poco. Como españoles, nuestro horizonte inmediato está en Europa. Así pues, la política cientí-fica española tiene que coordinarse dentro del espacio de investigación europeo. La creación del European Research Council, que financiará proyectos con el criterio exclusivo de la excelencia científica, y la re-ciente propuesta del primer plan de infarestructuras científicas euro-peas de ESFRI son dos iniciativas valiosísimas, en las que España debe implicarse plenamente, sin dejar por eso de hacerlo también en otras iniciativas transnacionales. La dimensión paneuropea resulta impres-cindible para construir un futuro de progreso sostenible y conseguir las transformaciones globales que aseguren la supervivencia de nuestra sociedad.

De izquierda a derecha, José Antonio Pascual Rodríguez, Joan Rodés Teixidor, Juan Modolell Mainou, Andreu Mas-Colell y Mateo Valero Cortés

Page 62: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,
Page 63: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

63CICNetwork

Almacenamiento de datos en nanopuntosInvestigaciones del National Institute of Standards and Technology (NISFT) podrían servir para desarrollar unos discos de nanopuntos, comercialmente viables, con 100 veces más capacidad que un disco duro actual.

Los nanopuntos son estructuras diminutas que, como los imanes, tienen un polo

positivo y otro negativo, y pueden cambiar de estado cuando son expuestos a un

campo magnético. Dicha propiedad puede servir para almacenar información.

Sin embargo, hay una gran variabilidad en la respuesta de los nanopuntos al

campo magnético, que los científicos eran incapaces de controlar.

Recientemente, un grupo de inves-

tigadores del NISFT, además de lo-

grar disminuir la variación a un 5%

respecto al campo magnético me-

dio, ha identificado la principal cau-

sa de dicha variabilidad: el diseño

multicapas de las láminas de las que

están hechos los nanopuntos.

Electroencefalografía en secoCientíficos de las Universidades de Barcelona y Surrey (Inglaterra) han desarrollado una nueva técnica de electroencefalografía (EEG).

La EEG mide la actividad eléctrica del cerebro, normalmente a través de peque-

ños electrodos colocados en el cuero cabelludo. El nuevo método consiste en

nanotubos de carbono que penetran la capa superior de la piel. De este modo,

los nanotubos tienen un buen contacto eléctrico con la piel y se puede pres-

cindir del gel conductor que se utiliza en la EGG convencional, y que produce

ruido en la señal e irrita la piel. Según los investigadores, esta técnica produce

unos resultados tan buenos como la convencional, es segura y no tiene efectos

secundarios.

Resistente y elásticoIngenieros estadounidenses han creado un nuevo material nanocomposite resistente y elástico a la vez, imitando la estructura de la seda de araña.

Se pueden hacer materiales muy resistentes o muy elásticos, pero es difícil obte-

ner un material con ambas propiedades. La seda de araña las tiene, gracias a sus

diminutos cristales orientados y fuerte-

mente adheridos a una proteína elástica

que forma la matriz que los rodea. Refor-

zando un elastómero de poliuretano con

“nanoplaquetas” de arcilla (laponita) se

ha logrado un efecto similar, creando un

material que podría tener aplicaciones

militares, textiles y biomédicas.

Actualidad Científica - Breves

Un detector de masa diminutoUn grupo de físicos de California Institute of Technology, encabezado por Michael Roukes, ha creado un detector de masa que puede pesar con una precisión de 10-19 g y que se puede utilizar en condiciones normales.

Existen dispositivos nanoelectrome-

cánicos capaces de pesar objetos

de hasta 10-18 gramos (atogramos),

pero requieren condiciones extremas

de vacío, temperaturas muy bajas e

imanes superconductores. El cambio

que han introducido los investigado-

res estadounidenses ha sido sustituir

el material semiconductor que se uti-

lizaba en dichos dispositivos por una

nanolámina de metal.

NanoEcoCementoUn estudio de la nanoestructura del hormigón podría ayudar a reducir las emisiones de CO2 que se producen en la fabricación del cemento.

Ingenieros del Massachussets Institu-

te of Technology (MIT) han estudiado

la nanoestructura del hormigón y han

comprobado que su dureza y durabi-

lidad no se deben a los minerales que

lo componen, sino a la forma en que

estos minerales se organizan en nano-

partículas.

El cemento (base del hormigón) se

fabrica a partir de piedra caliza y arci-

lla, sometiéndolos a temperaturas de

1.500 ºC para transformarlos en polvo. Se calcula que durante dicho proceso se

emiten hasta el 5-10% del total de emisiones mundiales de CO2. Los investigado-

res del IMT creen que se podrían reducir estas emisiones en un 10% si se encon-

trara la forma de hacer cemento con otros materiales.

La caída del sarampiónSegún un informe de la Measles Initiative, las muertes provocadas por el sarampión en todo el mundo se han reducido más de la mitad en seis años.

Las muertes provocadas por el sarampión

han pasado de 873.000 en 1999 a 345.000 en

2005. En África es donde más se ha progre-

sado, ya que la reducción de la mortalidad

ha sido de un 75%. Los expertos afirman que

incluso se podría llegar a erradicar esta in-

fección viral de las vías respiratorias.

Just

in M

. Sha

w, N

IST

M. R

ouke

s, C

IT

Page 64: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

64 CICNetwork

Actualidad Científica - Breves

Desafío a la termodinámicaEl demonio de Maxwell, una idea concebida por James Clerk Maxwell hace casi 150 años, se ha hecho realidad en un diminuto mecanismo nanotecnológico que controla el transporte de moléculas mediante una “puerta” molecular de una sola dirección.

El “demonio de Maxwell” es un ente

imaginario, capaz de separar molécu-

las en contra del equilibrio termodi-

námico. Un grupo de la Universidad

de Edimburgo ha creado dicho de-

monio, empleando un grupo de mo-

léculas que tiene un eje central con

un anillo y una “puerta”. Cuando se

le aplica luz, el anillo absorbe fotones

y transfiere energía a la “puerta”, que

cambia de forma para dejar pasar al

anillo. Sin embargo, una vez que pasa

ya no puede volver a transferir más

energía a la barrera, y, por lo tanto,

no puede volver hacia atrás. Todo

ello desafiaría la segunda ley de la termodinámica, si no fuera porque el anillo

recibe energía (fotones) del exterior.

Refracción negativa de la luzDescubierto un material con refracción negativa para la luz visible.

Según varios científicos, la refracción negativa para ondas del visible era prác-

ticamente imposible de conseguir. Sin embargo, Jennifer Dionne y Henri Lezec

afirman haber descubierto un material que cuenta con dicha propiedad, basán-

dose en las ondas electromagnéticas llamadas plasmones de superficie, que se

crean cuando la luz incide en los electrones libres que oscilan en la superficie

de un metal.

Crearon un mecanismo que consiste en dos láminas de plata separadas por un

aislante (nitruro de silicio) en el que está embebido un prisma bañado en oro.

La luz entra al mecanismo por una

hendidura en la lámina superior, y

se crea una onda de plasmones de

superficie que se propaga a lo largo

del metal. Entre el prisma y la lámi-

na superior hay un espacio de 50 nm;

y cuando los plasmones atraviesan

dicho espacio son refractados nega-

tivamente. Según Dionne, han con-

seguido detectar luz de longitud de

onda de 480-530 nm (azul-verde) sa-

liendo de su mecanismo con un índi-

ce de refracción de hasta –5 (frente

a +1,33 para la luz que pasa del aire

al agua).

Nuevo microscopio sin lentesFabricado un microscopio de rayos X sin lentes que permite tomar imágenes de muestras biológicas con gran resolución.

Las lentes de los microscopios de rayos X son muy difíciles de fabricar, por lo

que los físicos de la Universidad de Sheffield (Inglaterra) han optado por un mi-

croscopio sin lentes, que mide la difracción de los rayos X al pasar por la mues-

tra. Los que existían hasta ahora tomaban sólo una medida de la difracción, y

solamente eran efectivos para estructuras periódicas, tales como los cristales.

Pero este nuevo microscopio solapa varias medidas de difracción a la vez, lo que

permite tomar imágenes instantáneas de muestras biológicas, con una resolu-

ción sólo limitada por la longitud de onda de los rayos X.

El receptor de la vitamina A existeSe ha desvelado el misterio de cómo entraba la vitamina A –también conocida como retinol– al interior de la célula.

Durante tres décadas, diversos grupos de in-

vestigadores han intentado aislar el receptor

de la RBP, la proteína encargada de transpor-

tar la vitamina A. La aparente ausencia de

dicho receptor llevó a más de un investiga-

dor a pensar que no existía. Sin embargo, un

bioquímico de la Universidad de California

ha conseguido aislarlo a partir de 400 globos

oculares de vaca, y lo ha llamado STRA6.

Un resonador de un átomo de grosorFísicos estadounidenses han fabricado el resonador más fino del mundo, utilizando láminas de grafeno.

En total construyeron unos 30 resonado-

res con láminas de grafeno que tenían des-

de una única capa de átomos hasta 50 nm

de grosor. Dichas láminas se colocaron

sobre hendiduras de 1-5 micrómetros y se

les aplicó un láser o un impulso eléctrico.

Las vibraciones se detectaron midiendo la

desviación de un láser que era reflectado

por la superficie de grafeno. Se midieron,

así, frecuencias entre 1-170 MHz. Estos

resonadores podrían servir para crear

detectores de masa y fuerza de muy alta

sensibilidad.

Page 65: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

65CICNetwork

Acelerando moléculas neutrasFísicos alemanes han fabricado un sincrotrón que puede acelerar moléculas neutras.

Los sincrotrones son aceleradores de partículas circulares que aceleran partí-

culas cargadas mediante una combinación del campo eléctrico y magnético. Un

grupo de investigadores alemanes ha creado un sincrotrón capaz de acelerar

moléculas neutras, lo que puede abrir grandes posibilidades para la investiga-

ción. Se utiliza a temperaturas cercanas

al cero absoluto, donde las partículas

tienen tan poca energía que adoptan

un comportamiento más propio de una

onda que de una partícula. Haciendo

colisionar moléculas en frío se podrían

obtener extrañas reacciones que podrían

dar lugar a moléculas nunca vistas.

Monos demasiado limpiosLos inmunólogos tienen una nueva teoría sobre el dramático ensayo clínico del hospital Northwick Park de Londres.

El año pasado, un ensayo clínico del fármaco TGN1412, que había sido probado

con éxito en animales, tuvo graves consecuencias para seis pacientes volunta-

rios. El fármaco debía actuar activando unas células del sistema inmunológico,

pero, en los pacientes, provocó una sobrerreacción de las células Th (T-helper).

Según la nueva teoría, dicho efecto no se dio en los monos que se utilizaron en

los preensayos debido a que dichos animales no tienen muchas células Th, ya

que viven en condiciones muy asépticas.

puede ponerse en contacto con nuestro departamento de publicidad:e-mail: [email protected]éfono: +34 943 32 69 66

Parásitos contra la esclerosisLas infecciones parasíticas podrían frenar el autoataque del sistema inmunológico.

Investigadores argentinos realizaron un estudio con 24 enfermos de esclerosis

múltiple, de los cuales la mitad había sido infectado por parásitos intestinales; y

observaron importantes diferencias que favorecían a los infectados.

La esclerosis múltiple es una enfermedad en la que las propias células inmuno-

lógicas del cuerpo atacan a la mielina. Las células T producen unas moléculas

que provocan el ataque. Sin embargo, según un estudio realizado por científicos

argentinos, las células T de los pacientes infectados con parásitos producen

muchas menos moléculas dañinas.

Cortar el cáncer de raízIdentificado el punto débil de las células que producen tumores.

En un tumor hay diferentes tipos de células. Las células madre del cáncer no

se dividen tan rápidamente como el resto, pero son la fuente que suministra

nuevas células al tumor. Un grupo de investigadores de Tennessee ha descu-

bierto que dichas células se asientan frecuentemente en capilares sanguíneos.

Utilizando fármacos que pro-

vocan el constreñimiento de

los capilares, lograron una

reducción significativa de

las células madre del cáncer.

Según los investigadores, po-

dríamos hallarnos ante una

forma más efectiva de hacer

frente al cáncer.

Cynt

hia

Hein

er, F

ritz

Habe

r Ins

titut

e

Si desea anunciarse en

Actualidad Científica - Breves

Page 66: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,
Page 67: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

67CICNetwork

Cie

ntífi

cos

ilust

res

Lobachevski: el poder de una herejíaSantiago Fernández Fernández, miembro de la Comisión de Divulgación de la Real Sociedad Matemática Española (RSME)

Santiago Fernández Fernández (1954) es asesor de matemáticas

de Berritzegune de Abando-Bilbao y responsable de la revista de

matemáticas Sigma. Es autor de varios libros relacionados con la histo-

ria de las matemáticas. Pertenece la Comisión de Divulgación de la

Real Sociedad Matemática Española (RSME).

Lobachevski fue un célebre matemático ruso del siglo XIX, creador de una de las geometrías no-euclideanas, la geometría hiperbólica, honor que ha compartido con el húngaro J. Bolyai y el genio alemán F. Gauss. Desempeñó el cargo de rector de la Universidad de Kazán durante dos décadas, y fue un trabajador infatigable. En palabras de Clifford, Lo-bachevski era bastante más que un matemático, calificándole de “el Copérnico de la geometría”. Pero la geometría es sólo una parte más del amplio campo que renovó.

Su vidaNicolai Ivanovich Lobachevski nació el 1 de diciembre de 1792 en una pequeña localidad rusa llamada Nizhny Novgorod, muy cerca de la po-pulosa ciudad de Kazán. Cuando tenía siete años, murió su padre, y

ese mismo año su madre trasladó su residencia a Kazán, en busca de mejores horizontes para sus tres hijos. El 1802, comienza sus estudios primarios en el Gimnasium. La vida es-colar allí era extremadamente severa. Sin embargo, en este ambiente hostil y lúgubre, Nicolai encontró un joven profesor de matemáticas muy motivador (G. I. Kartashevski), persona interesada por la ciencia en general y por las matemáticas en particular. Kartashevski dictaba sus cursos basándose en las grandes obras de la época, y especial-mente utilizaba el libro Eléments de géométrie del ilustre matemático francés A. M. Legendre (1752-1833), publicado en el año 1794. En 1807 finalizó brillantemente sus estudios en el Gimnasium y se incorporó a la Universidad de Kazán. Con tan sólo quince años, ya era capaz de leer memorias científicas en varios idiomas: francés, alemán y latín. En 1804 se fundó la Universidad de Kazán, que abrió sus puertas un año más tarde. Era, por tanto, una universidad joven cuando Lobachevski comenzó sus estudios. La necesidad de nuevos profesores llevó a los responsables de la universidad a contratar docentes de un cierto pres-tigio. En 1808 tomó posesión de la cátedra de matemáticas el profesor alemán M. F. Bartels (1769-1833), matemático de primer orden y ex-

“Vivir es sentir, gustar la vida, ensayar constantemente algo nuevo que recuerde que vivimos... Nada estorba tanto a la plenitud de la vida como la ignorancia...”. Lobachevski.

Espa

cio

hipe

rból

ico.

Fue

nte:

The

Geo

met

ry C

ente

r, Un

ivers

idad

de

Min

neso

ta.

Page 68: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

68 CICNetwork

celente pedagogo (Bartels conocía personalmente al célebre F. Gauss, con el cual había coincidido en Brunswick). Como hábil profesor que era, Bartels pronto conectó con Lobachevski y le hizo interesarse por temas relacionados con la historia de las matemáticas. Es muy pro-bable que el interés de Lobachevski por el problema de las Paralelas surgiera a raíz de los cursos impartidos por Bartels.En 1811, Lobachevski recibió el título de licenciado en Física y Ma-temáticas, y dos años más tarde fue nombrado profesor adjunto. Ese mismo año, el profesor Bartels fue elegido decano de la facultad.El nuevo cargo de Lobachevski conllevaba más responsabilidades y exi-gencias. Además, su nueva categoría profesional le obligaba a impartir una serie de cursos y conferencias sobre diversos temas: álgebra, arit-mética, trigonometría, geometría... En todos los casos, Lobachevski se esmeró en preparar con sumo cuidado el contenido de los cursos para que sus alumnos comprendieran la materia. Su método de enseñanza fue motivo de agudas reflexiones durante muchos años. Posteriormen-te, dejaría plasmadas en un famoso artículo sus revolucionarias e inno-vadoras ideas al respecto. En julio de 1816, Lobachevski (sólo tenía 24 años) fue nombrado profesor extraordinario a petición del profesor y compañero Bartels.Con la fundación de la Santa Alianza, la vida intelectual en el Imperio Ruso se volvió insoportable, por lo que el profesor Bartels aceptó tra-bajar en la Universidad de Dorpat, dejando vacante el puesto de deca-no. Para cubrir dicho cargo fue propuesto Lobachevski.De repente, Lobachevski se convirtió en la piedra angular de su facul-tad. Su valía fue también reconocida en otros estamentos universita-rios. Se le requirió para la mayoría de los proyectos docentes y ad-ministrativos, entre otros, el de clasificar la enorme biblioteca central de la Universidad, que en aquellos momentos ya contaba con varias decenas de miles de libros, manuscritos y códices –por cierto, com-pletamente desordenados–; se le nombró miembro del comité de cons-trucción de los edificios universitarios, labor que consistía en poner en marcha las diversas construcciones que se erigieran por esa época en la universidad. Además, organizó el laboratorio de física y la compra de nuevos materiales para el laboratorio, y participó en el proyecto de construcción de un observatorio astronómico, que posteriormente él mismo utilizaría. Fue nombrado redactor de una revista surgida en el seno de la Universidad y que posteriormente se denominó Memorias

de la Universidad de Kazán. Formó parte del comité encargado de dirigir y controlar la actividad docente de todos los centros educativos del distrito de Kazán.Cualquiera de dichas labores era por si sola suficiente para una persona normal; sin embargo, Lobachevski parecía multiplicarse. Sin duda, se convirtió en el personaje central de la universidad. Todo el mundo le estimaba y reconocía su valía. Pero lo más notable es que fuera capaz de no olvidar las matemáticas, de seguir estudiando, investigando, es-cribiendo, impartiendo clases.En 1826, el zar Nicolás I se hizo con el poder e introdujo un régimen más tolerante. Para impulsar y renovar la vida universitaria, se con-vocaron elecciones a rector. Lobachevski presentó su candidatura, y fue elegido rector. Tenía sólo 33 años, y la tarea que se le avecinaba era compleja. El primer trabajo que afrontó Lobachevski en su cargo de rector fue rebajar la tensión que existía entre los profesores. Las reuniones del consejo, que antes eran ruidosas y poco planificadas, se desarrollaban ahora con total normalidad y dentro de un clima cons-tructivo. También se preocupó por mejorar la vida universitaria de los estudiantes, quienes pudieron participar en los estamentos universi-tarios. Un año después de tomar posesión como rector, Lobachevski pronunció un discurso que causó una gran conmoción por su frescura de ideas, independencia y progresismo. Dicho discurso fue publicado en 1832 en el Noticiero de Kazán con el título: Sobre las materias de la educación social. Lobachevski ocupó durante 19 años el cargo de rector, de manera ininterrumpida. A punto de cumplir los 40 años, en 1832, Lobachevski contrajo matri-monio con Varvara A. Moiséeva, con la que tuvo siete hijos. La dilata-da vida universitaria de Lobachevski finalizó en 1846, tras 30 años de servicio como profesor. Tras jubilarse (sería más correcto decir que fue destituido de sus cargos), le fue ofrecido el puesto de ayudante del responsable educativo de la región de Kazán, cargo que desempeñó con decoro pero sin ninguna influencia en la vida docente.Coincidiendo con su salida de la universidad, su mujer cayó gravemen-te enferma y, al poco tiempo, su hijo mayor murió de tuberculosis. Este cúmulo de desgracias, unido al hecho de que estaba quedándose ciego por una precoz esclerosis, hicieron que su salud se debilitara rápida-mente. Sus últimos años, en los que se sentía abandonado y enfermo, debieron ser muy penosos. Lobachevski falleció en Kazán, el 2 de fe-brero de 1856.

Su obraParar entender sus aportaciones es necesario explicar, aunque sea bre-vemente, el más célebre de los postulados de la matemática. El quin-to postulado es una de las piedras angulares sobre la que descansa la grandeza de los Elementos de Euclides, pero también ha sido la causa de los más duros ataques a su sistema geométrico. Los cuatro postu-lados que lo preceden son enunciados sencillos y cortos, mientras que el quinto es más enrevesado. Su lectura nos recuerda más a una pro-posición que a un postulado. Es muy posible que el mismo Euclides tuviera, inicialmente, esa misma sensación. De hecho, la ordenación de sus proposiciones, así como la demostración que hace del recíproco del quinto postulado, nos hace pensar en dicha posibilidad. Las situaciones derivadas de intentar demostrar el quinto postulado en base a los otros cuatro dieron lugar a un gran enredo intelectual, cono-

Científicos ilustres

Nikolay Lobachevsky (1792 - 1856)

Page 69: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

69CICNetwork

trie avec une dèmonstration rigoureuse du thèoréme des parallèles” (1826) y en él se expresaban buena parte de sus revolucionarias ideas. Para analizar el informe se reunieron en comisión tres profesores de la universidad, quienes adoptaron la decisión de valorar negativamente la publicación de su trabajo. Nuevamente, Lobachevski era vilipendiado. Si bien el trabajo no se editó, conocemos su contenido, ya que tres años más tarde el mismo Lobachevski publicó en la revista El mensajero de Kazán una memoria titulada “Acerca de los principios de geometría” (1829). Dicha memoria es compleja y difícil de leer, y cuenta con tres partes diferenciadas. La primera se centra en el estudio de la llamada geometría absoluta (en realidad, se trata de un resumen de su Geome-tría, presentada el año 1823 y que tan mal acogida tuvo); la segunda parte expone el contenido de su “Exposition succinte...”, y a lo largo de sus muchas páginas se dedica a estudiar y obtener el ángulo de pa-ralelismo, que él llama .La última parte del libro está dedicada a la medida de longitudes, áreas y volúmenes. El estudio se hace mediante procesos de integración. Por otra parte, muchos de los cálculos los realiza por varios procedimien-tos, para verificar que las operaciones coinciden, lo que le reafirma en

cido como el problema de las paralelas. Si bien los sucesivos fracasos de los intentos de demostración fueron agrandando más y más la figura de Euclides, también condujeron a la invención de nuevas geometrías. Para intentar solucionar el conflicto se hicieron dos tipos de intentos: el primero consistió en sustituir el quinto postulado por otro enunciado más evidente, mientras que el segundo se centró en deducirlo de los otros cuatro y de los teoremas o proposiciones que se iban constru-yendo.La primera de las opciones ha dado lugar a postulados sustitutivos. Merece la pena recordar el enunciado por el matemático escocés J. Playfair (1748-1819):“Por un punto P, exterior a una recta l, se puede trazar una única recta que pasa por el punto P y que no corta a la recta l”.

Un nuevo rumbo geométricoLobachevski abrió una nueva vía: estudió las consecuencias que tenía para la geometría el hecho de que no se cumpliera necesariamente el quinto postulado. Una de sus principales obras, en la que se muestra este nuevo espíritu geométrico –Geometría (1823)–, fue severamente criticada por el académico ruso N. I. Fuss (1755-1826). Lo cierto es que su Geometría resultó muy atrevida para la época, y, posiblemente, el académico Fuss no comprendió el trasfondo de un planteamiento tan novedoso y rupturista. La disposición de los distintos capítulos llama poderosamente la atención. Los primeros cinco capítulos se redactan sin utilizar para nada el famoso quinto postulado. Desde el punto de vista histórico, este hecho es fundamental, ya que es la primera per-sona que trata de manera consciente la geometría absoluta (aquella que no depende del quinto postulado, sino únicamente de los cuatro primeros).Posiblemente influido por la filosofía expresada por D’Alembert (1717-1783), se inclina por un “tratamiento métrico”. Lobachevski se da cuen-ta de que la medida de los ángulos y de los segmentos no depende del quinto postulado, mientras que la medida de las áreas tiene estrecha re-lación con el famoso quinto postulado, motivo por el que el cálculo de áreas de diversas figuras no es abordado hasta bien avanzado el libro.En el tratamiento que realiza de la teoría de las paralelas se vislumbran ya breves trazos de sus ulteriores trabajos. En el trabajo presentado, Lobachevski intenta demostrar el postulado de las paralelas a la inver-sa de la manera que fue enunciado por Playfair:Lobachevski supuso que “por un punto P no situado en la recta l pa-san, en el plano, más de una recta no secante con l”.Lobachevski, a partir de una hipótesis tan absurda, comienza a deducir resultados, con la intención de encontrar alguna contradicción. Curio-samente construye un raro pero armonioso edificio geométrico que él llama geometría imaginaria y que actualmente llamamos geometría hi-perbólica o de Lobachevski.Si bien el texto no llegó a publicarse hasta años más tarde, fue, sin duda, el germen de sus posteriores investigaciones geométricas.A pesar de las severísimas críticas recibidas, siguió trabajando y pro-fundizando en la teoría de las paralelas. Tres años más tarde, el 11 de febrero de 1826, en una reunión de la facultad físico-matemática, Lo-bachevski presentó un informe de cara a conocer la opinión de sus colegas respecto a sus investigaciones geométricas. Dicho informe llevaba como título “Expositiòn succinte des principies de la gèome-

Científicos ilustres

Los 5 postulados de Euclides

I. Dados dos puntos se puede trazar una recta que los une. II. Cualquier segmento puede ser prolongado de forma

continua en una recta ilimitada en la misma dirección. III. Se puede trazar una circunferencia de centro en

cualquier punto y radio cualquiera. IV. Todos los ángulos rectos son iguales. V. Si una recta, al cortar a otras dos, forma

los ángulos internos de un mismo lado menores que dos rectos, esas dos rectas prolongadas indefinidamente se cortan del lado en el que están los ángulos menores que dos rectos.

Postulado de Playfair (sustitutivo del V)

V*. Por un punto P, exterior a una recta l, se puede trazar una única recta que pasa por el punto P y que no corta a la recta l.

Postulado de Lobachevski (negación del V)

V**. Por un punto P no situado en la recta l, pasan, en el plano, más de una recta que no corta a la recta l.

Page 70: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,

70 CICNetwork

Científicos ilustres

La función El ángulo de paralelismo fue estudiado por Lobachevski con suma atención. Tras un estudio analítico de funciones llega a la conclusión que el ángulo de paralelismo se puede obtener mediante una función del tipo:

El dibujo nos indica que la recta AB es paralela a las rectas p y q, pasando por el punto C. Siendo el ángulo que forman dichas rectas paralelas en el punto C, donde a expresa la dis-tancia del punto C al D.

Al igual que los estudios realizados por Lambert, Taurinus, Gauss y tantos otros, aparece en la fórmula del ángulo el valor K. ¿Pero, qué significa K?“Teóricamente, K puede tener cualquier valor. A cada uno de los valores de la constante K le corresponde una geometría imagi-naria. No hay una sola geometría imaginaria; existe un número infinito de variedades correspondientes a los diversos valores de la constante K, de las cuales la vieja geometría euclidiana corres-ponde al caso límite (cuando K tiende a infinito)”. (Lobachevski)

su convicción de que la geometría que estaba edificando era correcta desde un punto de vista lógico. En 1832, siendo Lobachevski rector, el consejo de la Universidad de Kazán pidió a la Academia de Ciencias de San Petersburgo un informe “Acerca de los principios de geometría”. La Academia encargó el trabajo al académico M. V. Ostrogradski, que después de estudiarlo hizo la siguiente crítica verbal:“...después de haber estudiado una obra del rector Lobachevski, tengo que observar que la obra está redactada con tan poco cuidado, que una gran parte es ininteligible. Por eso, estimo que dicha obra de Lobache-vski no merece la menor atención de la Academia”. A Lobachevski le debió molestar enormemente la crítica tan ofensiva del académico ruso, por lo que nuevamente hizo un gran esfuerzo por explicarse mejor. Así, publica una memoria titulada “Geometría ima-ginaria” (1835), continuando el año siguiente con “Aplicación de la geometría imaginaria a algunas integrales” (1836). En realidad, di-chas memorias, publicadas en Memorias de la Universidad de Kazán, no aportaban nada nuevo a sus anteriores trabajos, pero, al disponer de

más espacio, Lobachevski pudo explicar mejor los procesos y sus cál-culos se convirtieron en más inteligibles. La obstinación de Lobachevs-ki le llevó a redactar una y otra vez sus trabajos desde diferentes ópti-cas. Lobachevski era consciente de que sus escritos no eran sencillos de leer. Su concisión, la originalidad de sus planteamientos, las conse-cuencias derivadas de su teoría y el escribir en contra del pensamiento geométrico establecido (defendido por el filósofo alemán I. Kant) le llevó a redactar un tratado crucial: “Geometrishe Untersuchungen zur theorie der parallellinien” (1840). Por medio de este librito, escrito en alemán, la comunidad matemática toma contacto con las revoluciona-rias ideas geométricas de Lobachevski. Este escrito debió impresionar tanto a F. Gauss que, en noviembre de 1842, propuso la candidatura de Lobachevski para que fuera nombrado miembro de la Sociedad Cien-tífica de Göttingen, que ya entonces tenía el rango de Academia. Sin duda, este reconocimiento por parte del mejor matemático vivo fue la consagración de sus teorías geométricas. El trabajo de Lobachevski en temas no relacionados directamente con la geometría es también muy sugerente. Su obra no geométrica más im-portante, tanto por su contenido como por su extensión, fue el tratado de “Álgebra” (1834), manual muy original. De hecho, Lobachevski fue reconocido en su época por el contenido de este libro más que por sus investigaciones geométricas. Con motivo del cincuentenario de la fun-dación de la Universidad de Kazán, Lobachevski fue invitado a escribir un artículo sobre sus investigaciones geométricas. A pesar de estar en-fermo e impedido visualmente, aún tuvo ánimos para escribir su última obra, en ruso, titulada Pangeometría (1855).

Conclusiones y consecuencias Por una parte, Lobachevski fue el primero que se percató de que el quin-to postulado de Euclides no podía deducirse de las otras proposiciones fundamentales de la geometría y se atrevió a negar la “verdad eviden-te” de dicho postulado. Con su trabajo mostró no sólo que el quinto postulado es indemostrable, sino algo aún más importante: que desde un punto de vista estrictamente lógico, se pueden concebir varias geo-metrías, entre las que se encuentra la vieja geometría de Euclides. Sin embargo, las ideas de Lobachevski no fueron aceptadas de inmediato. Ideas tan radicales, que chocaban con los prejuicios de casi todos los científicos, no encajaron fácilmente como parte de la ciencia. Lobache-vski defendió sus ideas convencido de que sus trabajos eran correctos y no vaciló en luchar contra la mentalidad dominante de la época, a la que consideraba caduca e incompatible con el progreso de la ciencia. Con el nacimiento de las geometrías no-euclidianas se planteó la pre-gunta sobre cuál de las geometrías describe de la mejor manera po-sible el mundo físico, iniciándose uno de los períodos dorados en la interacción entre las matemáticas y la física. En el debate participaron las mejores mentes del siglo XIX: Riemann, Poincaré, Klein..., hasta el mismo Einstein. Señalemos, finalmente, que a mediados del siglo XIX apareció un nuevo principio general de qué es lo que se puede entender por geometría. Esta idea fue expuesta por Riemann en 1854, en una conferencia titulada “Sobre las hipótesis que yacen en los fundamen-tos de la Geometría”(1867). Riemann puede ser considerado el nuevo Euclides, ya que su contribución no se limita al campo de la geometría. Su estudio sobre la métrica de espacios curvos fue fundamental, ya que allanó el camino a la relatividad general.

Page 71: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,
Page 72: Heinrich Rohrer · 2014-03-20 · por Pedro Miguel Etxenike. Igor Campillo, responsable de Proyectos y Comunicación de CIC nanoGUNE , entrevista al Premio Nobel de Física 1986,