El universo: dónde se hace discreto el espacio-tiempo

Nuestra experiencia sobre el espacio-tiempo es que se trata de un objeto continuo, sin huecos ni discontinuidades, tal como se describe en la física clásica. Sin embargo, en algunos modelos de gravedad cuántica, la textura del espacio-tiempo es “granular” a escalas diminutas (por debajo de la conocida como escala de Planck, 10-33 cm), como si hubiese una mezcolanza variable de sólidos y vacíos (como una espuma compleja). Uno de los mayores problemas de la física actual es comprender el paso de una descripción continua a una discreta del espacio-tiempo: ¿existe un cambio abrupto o es una transición gradual? ¿Dónde ocurre este cambio?
La separación entre un mundo y otro crea problemas para la física: por ejemplo, ¿cómo describir la gravedad – tan bien explicada en la física clásica – en el contexto de la mecánica cuántica? La gravedad cuántica es, de hecho, un campo de estudio en el cual no existe aún ninguna teoría consolidada. Sin embargo, hay “escenarios” que ofrecen posibles interpretaciones de la gravedad cuántica sujeta a distintas restricciones, y que esperan confirmación, o refutación, experimental.
Espuma cuántica
Espuma cuántica

Uno de los problemas a resolver a este respecto es que si el espacio-tiempo es granular, más allá de cierta escala, eso implica que hay una “escala base”, una unidad fundamental que no puede romperse en nada más pequeño, una hipótesis que choca con la teoría especial de la relatividad de Einstein.
Imagina que sostienes una regla en una mano: de acuerdo con la relatividad especial, para un observador que se mueva en línea recta a velocidad constante (próxima a la velocidad de la luz) respecto a ti, la regla parecería más corta. Pero, ¿qué pasa si la regla tiene una longitud que es la escala fundamental? Para la relatividad especial, la regla seguiría viéndose más corta que esta unidad de medida. Por tanto, la relatividad especial es claramente incompatible con la introducción de una granularidad básica del espacio-tiempo. Sugerir la existencia de esta escala básica, según los físicos, implica violar la invariancia de Lorentz, el principio básico de la relatividad especial.
Entonces, ¿cómo podemos reconciliar ambas? Los físicos pueden proponer hipótesis sobre violaciones a la invariancia de Lorentz, pero tienen que satisfacer unas restricciones muy estrictas (y éste ha sido el enfoque preferido hasta el momento), o deben hallar un camino para evitar la violación y encontrar un escenario compatible tanto con la granularidad como con la relatividad especial. Este escenario se ha implementado en algunos modelos de gravedad cuántica tales como la Teoría de Campo de Cuerdas y la Teoría de Conjunto Causal. El problema a abordar, sin embargo, era cómo poner a prueba estas predicciones experimentalmente, dado que los efectos de estas teorías son mucho menos aparentes de los efectos en modelos que violan la relatividad especial. Una solución para este impasse la ha propuesto Stefano Liberati, profesor de SISSA, y sus colegas en su última publicación. El estudio se llevó a cabo con la participación de investigadores del LENS en Florencia (Francesco Marin y Francesco Marino) y del INFN en Padua (Antonello Ortolan). Otros científicos de SISSA que tomaron parte en el estudio, además de Liberati, fueron el estudiante de doctorado Alessio Belenchia y el posdoctorado Dionigi Benincasa. La investigación estuvo patrocinada por una beca de la Fundación John Templeton.
“Respetamos la invariancia de Lorentz, pero todo tiene un precio, y en este caso es la introducción de efectos no locales”, comenta Liberati. El escenario estudiado por Liberati y sus colegas salva la relatividad especial, pero introduce la posibilidad de que la física, en cierto punto del espacio-tiempo, puede verse afectada no sólo por lo que sucede en la proximidad de dicho punto, sino por regiones muy alejados de él. “Claramente, no violamos la causalidad ni presuponemos que la información viaja más rápidamente que la luz”, señala el científico. “Sin embargo, introducimos la necesidad de saber la estructura global, de forma que podamos comprender qué sucede a nivel local”.

De la teoría a los hechos

Hay algo más que hace que el modelo de Liberati y sus colegas sea casi único, y sin duda muy valioso: está formulado de un modo que hace que sea posible ponerlo a prueba de forma experimental. “Para desarrollar nuestro razonamiento, trabajamos codo con codo con los físicos experimentales de LENS en Florencia. Ya estamos, de hecho, trabajando en el desarrollo de los experimentos”. Con estas medidas, Liberati y sus colegas pueden lograr identificar el límite, o zona de transición, donde el espacio-tiempo se convierte en granular y la física en no local.
“En LENS están ahora construyendo un oscilador armónico cuántico: un circuito de silicio con un peso de pocos microgramos que, tras ser enfriado a temperaturas cercanas al cero absoluto, se ilumina con una luz láser y empieza a oscilar armónicamente”, explica Liberati. “Nuestro modelo teórico acomoda la posibilidad de poner a prueba los efectos no locales de los objetos cuánticos en objetos que tienen una masa casi despreciable”. Este aspecto es importante: un escenario teórico que tiene en cuenta los efectos cuánticos sin violar la relatividad especial también implica que estos efectos, a nuestras escalas, deben ser necesariamente pequeños (o, de otro modo, los habríamos observado). Para ponerlos a prueba, tenemos que lograr observarlos de una forma u otra. De acuerdo con nuestro modelo, es posible ver los efectos en objetos ‘al límite’, es decir, objetos que son innegablemente cuánticos pero que tienen un tamaño donde la masa – es decir, la ‘carga’ asociada con la gravedad (del mismo modo que la carga eléctrica se asocia al campo electrico) – aún es sustancial”.
“Basándonos en el modelo propuesto formulamos predicciones sobre cómo oscilaría el sistema”, señala Liberati. “Dos predicciones, para ser precisos: una función que describe el sistema sin efectos locales, y una que lo describe con efectos locales”. El modelo es particularmente robusto dado que, tal como explica Liberati, la diferencia en el patrón descrito en ambos casos no puede generarse mediante la influencia del entorno sobre el oscilador. “Es una situación en la que siempre ganamos: si no vemos el efecto, podemos aumentar el límite de energía donde buscar la transición. Por encima de todo, los experimentos deberían poder empujar los límites de la escala de no localidad hasta la escala de Planck. En este caso, llegamos hasta a excluir estos escenarios con no localidad. Y esto, por sí mismo, sería un buen resultado, dado que estaría reduciendo el número de escenarios teóricos posibles”, concluye Liberati. “Por otra parte, si observamos el efecto, bueno, en ese caso estaríamos confirmando la existencia de efectos no locales, allanando el camino hacia una física completamente nueva”.

Científicos separaron un átomo en dos parte


Los científicos lograron separar un átomo, usando los métodos precisos de mecánica cuántica. Científicos de la Universidad de Bonn lograron separar un átomo en dos, obteniendo un resultado que contradice al propio nombre de la partícula elemental, que se traduce del griego como "inseparable".
 
 
 
Los investigadores lograron hacer lo que habría sido inimaginable para los griegos, usando los más modernos métodos de la mecánica cuántica

El proceso es complicado y para que sea exitoso hay que crear unas condiciones muy especiales. Entre ellas están una temperatura cercana al cero absoluto y unos láseres muy precisos. Uno es responsable de enfriar el átomo de cesio y el otro debe moverlo, una vez alcanzada la temperatura requerida. 

Los detalles del experimento son aún más complejos: cada átomo tiene una característica que se llama espín y con apoyo de éste puede moverse a sus lados. Pero los especial aquí es que el espín puede también existir en dos direcciones al mismo tiempo. 

Este es posible solo en mecánica cuántica, que establece que una materia puede existir en varios estados al mismo tiempo. Este hecho sirvió de base para el experimento, en el quel los científicos lograron que dos partes del átomo estuvieran a 10 micrones una de la otra, una distancia enorme para las partículas elementales. 

“El átomo tiene algo parecido a una personalidad múltiple”, intenta explicarlo uno de los autores del estudio, Andreas Steffen. “Una mitad de él está a la derecha, una mitad a la izquierda y, sin embargo, todavía es un entero”. 
 

La Tierra está dentro de un agujero negro



Un físico estadounidense insiste en que tiene una teoría viable del Big Bang

El físico teorético Nicodem Poplawski de la Universidad de Indiana (Estados Unidos) insiste que ha descubierto cómo fue la naturaleza del Big Bang. Para él, nuestro Universo son entrañas de un agujero negro ubicado en el 'pra-universo madre'.
Poplawski desarrolló  desde hace tiempo un modelo teorético que postula que todos los agujeros negros astronómicos son entradas a túneles hipotéticos que unen diferentes regiones del espacio-tiempo (los llamados puentes Einstein-Rosen o 'agujeros de gusano'). Según él, al otro lado de los túneles están las antípodas de los agujeros negros; es decir, los agujeros blancos. Si los agujeros negros son zonas del espacio con una gravedad tan fuerte que ningún objeto, aunque se mueva con la velocidad de luz, puede abandonarlas; los blancos, en cambio, son zonas adonde nada puede penetrar.


Mientras tanto, dentro de los túneles se crean condiciones que parecen a un Universo en expansión. Según Poplawski, el espacio-tiempo es flexible y torcido. La torsión podía influir los procesos en el espacio-tiempo solo en un Universo temprano, cuando las distancias entre las partículas eran muy pequeñas, mientras que los efectos cuánticos eran muy fuertes. El físico insiste en que en aquel entonces la torsión fue una potente fuerza de repulsión que resistía a las fuerzas de gravedad.


El modelo Poplawski presupone que cuando una estrella está convirtiéndose en un agujero negro, las fuerzas de gravedad prevalecen, comprimiendo la materia hasta una densidad muy alta. Sin embargo, la materia no consigue una densidad infinita. Cuanto más fuerte que se haga la compresión, los efectos cuánticos también se hacen más fuertes y la torsión resiste la retorsión gravitatoria cada vez más y más. En un momento determinado, el agujero negro se apodera de tanta materia del 'pra-universo' que lo rodea y consigue una densidad tan alta, que esto refuerza la torsión hasta tal grado que este provoca un Big Bang.


En los instantes iniciales, la expansión del universo fue ultrarrápida pero luego se demoró, debido a la caída de la fuerza de torsión. Poplawski opina que la torsión hizo también a la materia descomponerse en electronos y quarks y a la antimateria, a transformarse en la materia oscura. Con esto explica el desbalance actual: la antimateria es un déficit, ya que desde el Big Bang se convirtió en la materia oscura. Para él, el interior de cada agujero negro se convierte en un nuevo Universo.


El físico estadounidense está seguro de que las observaciones astronómicas actuales comprueban la vitalidad de su teoría. Acentúa que todas las estrellas y agujeros negros giran, sería lógico si el nuestro universo heredara el eje de rotación del agujero negro ‘padre’ como “una dirección preferida”. Subraya que los últimos informes que incluyen observaciones de más de 15.000 galaxias muestran que en un hemisferio del Universo la mayoría de las galaxias espirales son ‘zurdas’, es decir, giran en sentido horario, mientras que en el otro hemisferio la mayoría son ‘diestras’. Para él, esto es una prueba firme de su teoría.
Poplawski está trabajando en el tema desde hace años. Por primera vez presentó al público todos los detalles de su modelo definitivo en 2010. En aquel entonces recibió unas fuertes críticas al respecto: la mayoría de los expertos coincidía en que su teoría no era capaz de ofrecer ningún método para comprobarla. Sin embargo, esto no pareció desanimar al físico. Sigue desarrollando el modelo, según muestran sus últimas publicaciones en Insidescience y Physorg.

La idea magnífica de colocar el sol en una caja

Hace cinco años en el Palacio del Elíseo, en París, fue firmado el  acuerdo sobre la construcción un reactor termonuclear experimental internacional, proyecto ITER en la localidad de Cadarache, en sur de Francia.



Los firmantes del acuerdo fueron siete: la Unión Europea, Rusia, EEUU, India, Japón, Corea del Sur y China. Y desde entonces se emprendió el trabajo para desarrollorar uno de los proyectos energéticos más ambiciosos de la humanidad.El reactor es experimental porque no está destinado a la producción de energía eléctrica, de esto se ocuparán las instalaciones de las generaciones posteriores. El objetivo del reactor es lograr una reacción termonuclear ininterrumpida en el curso de mil segundos convencionales. A la vez, la energía térmica que expulsará deberá superar en diez veces los gastos para el mantenimiento de la síntesis termonuclear. Por ahora semejante proporción parece inalcanzable: en los laboratorios del mundo la energía que genera la reacción termonuclear es superior en un 2 % a los gastos que se hacen.
En Cadarache se está terminando de construir el edificio para el personal, se levantan los muros del local que albergará el reactor, en el fundamento se colocó una base seísmo aislante. Para ver como tal o cual país cumple con sus compromisos en cuanto a plazos y volumen de trabajo, se estableció un índice especial –dice el presidente del Centro de Investigaciones Científicas “Instituto Kurchátov”, Evgueni Vélijov.
–Rusia en este índice está algo por encima de la unidad: 1,04. Japón se encuentra a nivel de la unidad, los demás países desarrollados están por debajo. De modo que no sólo desde el punto de vista de la física, donde siempre estuvimos en loalto, sino también desde el punto de vista de la ejecución del proyecto Rusia está en lo alto. 
La participación de Rusia en el proyecto reportará una enorme cantidad de beneficios para el país –considera el director del Centro de Proyecto del Reactor Termonuclear Experimental Internacional (ITER), Anatoli Krasílnikov: 
–El Centro ITER firmó setenta y ocho acuerdos. Esto significa que sólo nosotros tenemos setenta y ocho proveedores. Se trata de cientos de empresas y cada caso es un centro de crecimiento tecnológico y puestos de trabajo. Para preparar a un especialista es insuficiente impartirle clases en el Instituto, hay que darle trabajo. El proyecto ITER cumple esa función en Rusia. Brinda a la gente profesiones que están en la cima tecnológica del mundo. 
Rusia está construyendo dieciocho sistemas para el proyecto ITER. Por ejemplo, el plasma en los reactores será calentado con generadores de alta frecuencia rusos, inventados en la Unión Soviética. Y los encargos de imanes superconductores para retener el plasma impulsará el desarrollo de nuevos ramos en Rusia –prosigue el subjefe de Rosatom, Viachelav Pershukov: 
-Gracias al ITER se están creando nuevos ramos industriales, nuevas tecnologías. Se construyó una fábrica de sistemas superconductores en Glázov (Udmurtia). Se está dando un paso de la superconductibilidad criogénica a la de altas temperaturas, lo cual ya son nuevos materiales. De tal modo, el ITER se convierte asimismo en una base para el desarrollo de un nuevo negocio. Con respecto a los especialista, diremos que estamos enviando a jóvenes científicos a Cadarache para realizar prácticas. Se temía que nadie volvería, pero resultó que no sólo todos volvieron, sino también que aquellos se habían ido antes ya están pensando en volver a Rusia y trabajar en nuestros institutos. 
El relevante físico francés Pierre-Gilles de Gennes, dijo en su tiempo sobre el ITER lo siguiente: “es una idea magnífica la de colocar el Sol en una caja. ¿Pero de qué hacerla?” Los científicos temieron largo tiempo que el potente flujo de neutrones procedente de la división de los núcleos destruiría las paredes del reactor. Y por fin se encontró una solución para el ITER: las paredes serán de berilio y wolframio.


Fuente: http://spanish.ruvr.ru/2012_05_18/Francia-acuerdo-reactor-termonuclear-construccion-proyecto-resultados/
Entrelazamiento cuántico y libre albedrío
 
Un trabajo teórico de unos físicos interpreta el libre albedrío de los experimentadores que estudian el entrelazamiento cuántico. 

Uno de los efectos cuánticos más desconcertantes es el del entrelazamiento cuántico y su colapso en un experimento EPR. En este tipo de experimentos se entrelazan cuánticamente dos partículas que podemos llamar Alice y Bob y se disparan en sentidos opuestos. Los estados de de ambas partículas estarán indeterminados hasta que una medida colapse el estado de una de ellas, entonces, automáticamente, el estado de la otra quedará totalmente determinado y de manera instantánea, incluso si median años luz de distancia. Aunque no se viola la causalidad relativista, pues el proceso no trasmite información, no deja de ser sorprendente. Si además tenemos en cuenta que la primera partícula en ser medida depende de nuestro sistema de referencia según la Relatividad Especial, no es de extrañar que esta “acción a distancia” le desagradara tanto a Albert Einstein (la E de EPR).
La solución que se propuso en un principio fue el afirmar que la Mecánica Cuántica (MC) no es una teoría final, sino una suerte de aproximación estadística a una teoría más fundamental que tendría unas variables aún por descubrir y que se denominaron “ocultas”.
Gracias al trabajo teórico de Bell con sus desigualdades se pudo demostrar más tarde que tal teoría de variables ocultas no existía. Los experimentos, por tanto, descartan correlaciones ocultas entre partículas en las que los resultados de las medidas están de acuerdo desde un principio. La Naturaleza parece ser tan extraña como estos experimentos dicen, cuyos resultados no son fruto de nuestra ignorancia, sino de una física real y sorprendente.
El proceso de medida en MC también ha hecho correr ríos de tinta y todavía no está del todo solucionado al gusto de todos. Aunque se han propuesto buenas soluciones, también ha dejado abierta la puerta a cantamañanas sin escrúpulos que introducen misticismo en el asunto, y hablan del supuesto papel de la consciencia en el proceso de colapso (algo que vende muchos libros de “divulgación”).
No obstante, la naturaleza de la MC ha hecho que los físicos reconsideren su propio papel en este tipo de procesos.
Imaginemos que una mano invisible forzara a los experimentadores a realizar medidas que siempre den lugar a este extraño acuerdo en los experimentos EPR de acción a distancia.
Ahora, Jonathan Barrett de la Universidad de Bristol y Nicolas Gisin de la Universidad de Ginebra nos proporcionan una nueva perspectiva a este problema.
Asumen que el entrelazamiento se da como un mecanismo cuántico que prohíbe, entonces se preguntan cuanta libertad tiene el experimentador que tener para descartar la posibilidad de interferencias ocultas.
La respuesta es interesante. Según estos dos físicos si se comparte alguna información entre el experimentador y las partículas que mide, entonces el entrelazamiento puede ser explicado por algún tipo de proceso oculto que es determinista. Esto, en términos prácticos, viene a decir que no hay información compartida entre un generador de números aleatorios que determine los parámetros del experimento y las partículas que son medidas.
Pero lo mismo se mantiene para los experimentadores y no hay información compartida entre ellos y las partículas que miden. En otras palabras, tienen libre albedrío.
Es más, si un experimentador carece de sólo un poquito de libre albedrío entonces la MC puede ser explicada en términos de variables ocultas. Pero si aceptamos la validez de la MC entonces podemos ser capaces de estudiar la naturaleza del libre albedrío.
Claro que, todo depende de lo que entendamos como libre albedrío.

Nueva visión de las placas tectónicas


Informáticos y geofísicos de la Universidad de Texas, en Austin, y el Instituto de Tecnología de California, han desarrollado nuevos algoritmos que por primera vez permite la modelización simultánea del flujo del manto terrestre de la Tierra, una tectónica a gran escala de los movimientos de las placas, y del comportamiento individual de las zonas de fallas, para producir una visión sin precedentes de las placas tectónicas y las fuerzas que la impulsan.

Los informáticos, del Instituto de Texas de Ingeniería y Ciencias Computacionales (CIEM), han empleado una técnica computacional conocida como malla de refinamiento adaptable (AMR, siglas de 'Adaptive Mesh Refinement').

Las ecuaciones derivadas parciales, describen el flujo del manto mediante la subdivisión de éste en regiones, en una cuadrícula computacional. En general, la resolución se mantiene igual en toda la red. Aunque muchos problemas de la dinámica característica a pequeña escala sólo se encuentran en regiones limitadas. "Los métodos AMR se adaptan para crear una resolución más fina allí donde se necesita", explica Omar Ghattas, del CIEM. "Esto conduce a grandes reducciones del número de puntos en la cuadrícula, haciendo posible simulaciones que antes estaban fuera de nuestro alcance."

Esta complejidad significa que los actuales algoritmos de AMR no han reducido la necesidad de los modernos superordenadores a petaescala. Los ordenadores a petaescala son capaces de mil billones de operaciones por segundo. Para lo que se desarrollaron nuevos algoritmos que superasen este problema de adaptabilidad.

Con los nuevos algoritmos, los científicos fueron capaces de simular el flujo del manto global, tal cómo se manifiesta en la tectónica de placas y el movimiento de las fallas individuales. Según Georg Stadler, los algoritmos de AMR redujeron el tamaño de las simulaciones en un factor de 5.000, lo que permite que encajen en un número menor de 10.000 procesadores, y se ejecute durante la noche en el superordenador Ranger de la National Science Foundation (NSF).

Una clave para el modelo fue la incorporación de datos en una multitud de escalas. Los límites entre las placas se componen de muchos cientos de miles de fallas individuales, que en su conjunto constituyen las zonas activas de la falla. "Las zonas de fallas individuales desempeñan un papel crítico en cómo funciona el planeta entero", explica Michael Gurnis, "y si no se pueden simular las zonas de falla, tampoco el movimiento de placas" y, a su vez, no se podría simular la dinámica de todo el planeta.

Se creó una malla con una resolución de aproximadamente un kilómetro, cerca de los bordes de placa. En esta simulación se incluyen los datos sismológicos, datos relativos a la temperatura de las rocas, densidad y viscosidad, la fortaleza o debilidad de las rocas, que afecta a la facilidad con que se deforman.

Los investigadores descubrieron que el movimiento anómalo rápido de las microplacas aparecen en las simulaciones globales. "En el Pacífico occidental," dice Gurnis, "tenemos algunos de los movimientos tectónicos más rápido que se hayan observado en cualquier lugar de la Tierra. "Por primera vez, encontramos que estos movimientos tectónicos a pequeña escala condicionan los modelos globales, abriendo una nueva frontera en la geofísica."

Uno de los resultados del modelo que sorprende, se refiere a la energía liberada a partir de las placas en las zonas sísmicas. "Se pensaba que la mayoría de energía asociada a la tectónica de placas se liberaba cuando las placas se plegaban, pero resulta que es menos importante de lo que se creía", señaló Gurnis. "En cambio, encontramos que gran parte de la disipación de energía se produce en el interior profundo de la tierra. En escalas más pequeñas nunca pudimos detectar esto."

Metamateriales: Estudian cambios en la estructura del espacio-tiempo 


En el momento del Big Bang, nuestro universo puede que no tuviese exactamente tres dimensiones de espacio y una de tiempo, de acuerdo con algunos teóricos. En el ejemplar del 6 de agosto de la revista Physical Review Letters, un equipo propone una forma de observar la transición propuesta a nuestro actual universo usando los conocidos como metamateriales, estructuras en las que la propagación de la luz puede controlarse con gran precisión. Los experimentos en tales estructuras, dicen, podrían comprobar las predicciones de que un “gran destello” de radiación acompañaría a cambios en la estructura del espacio-tiempo que pueden haber tenido lugar en los inicios del universo.

A lo largo de la última década, los teóricos han aprendido que elegir las propiedades microscópicas magnéticas y eléctricas de los materiales les permite manipular la luz de formas sorprendentes, potencialmente llevando a dispositivos como lentes perfectas y capas de invisibilidad. Los experimentadores han empezado a confirmar estas ideas usando metamateriales – grandes conjuntos de diminutos cables, anillos y otras estructuras que son pequeñas en comparación con la longitud de onda de la luz.

Los materiales hechos a medida podrían también usarse para explorar las inusuales geometrías del espacio-tiempo, dicen Igor Smolyaninov de la Universidad de Maryland en College Park, y Evgenii Narimanov de la Universidad de Purdue en West Lafayette, Indiana. Normalmente, para una onda de luz que atraviesa un material, conforme se acorta su longitud de onda, su frecuencia aumenta, y esto se aplica de la misma forma en todas direcciones. Pero Smolyaninov y Narimanov describen un metamaterial donde la relación entre frecuencia y variaciones espaciales de los campos electromagnéticos es altamente anisotrópica. Para algunas configuraciones de los campos, se podría incrementar la longitud de onda efectiva en una dirección específica, y aún así la frecuencia general disminuiría.

El equipo demuestra que esta relación, conocida como hiperbólica, entre las variaciones espacial y temporal de las ondas electromagnéticas, es exactamente lo que se tendría en un espacio-tiempo de dos dimensiones temporales y dos espaciales. Una propiedad de esta geometría es que, para una frecuencia dada, hay un número infinito de configuraciones de campo electromagnético, o modos, mientras que en el espacio-tiempo normal podría haber muchos modos, pero no infinitos.

Smolyaninov admite que el comportamiento creado no permitiría cosas extrañas como máquinas del tiempo – una posibilidad teórica con dos dimensiones temporales – debido a que sólo sucede en un rango limitado de frecuencias y se interrumpe con pérdidas de energía que no se permiten en la teoría. Pero manipular el material puede aún permitir a los experimentadores observar lo que sucede cuando la geometría del espacio-tiempo cambia drásticamente. Por ejemplo, si las muchas dimensiones extra predichas por la Teoría de Cuerdas de pronto se “enrollasen” en el universo, dejando sólo tres dimensiones espaciales, algunos teóricos predicen que se habría producido un “gran destello” de radiación, algo similar al Big Bang. El destello habría tenido lugar debido a que cualquier energía en la infinidad de modos del espacio-tiempo de más dimensiones se liberaría súbitamente.

Smolyaninov y Narimanov proponen construir una estructura que incluye láminas de finos cables de galio, el cual se hace más conductor cuando se fundo justo por encima de la temperatura ambiente. Calculan que la fusión cambiará el metamaterial de normal a hiperbólico, por lo que los experimentadores podría buscar el gran destello cuando se enfría. “Con los metamateriales, puedes modelar esta transición de forma experimental”, señala Smolyaninov.

Ulf Leonhardt, de la Universidad de St. Andrews en Escocia dice que los modelos de laboratorio pueden ser muy informativos para fenómenos donde la gente no tiene experiencias directas y por tanto hay una intuición limitada. “Si estos sistemas pueden crearse en el laboratorio, y si muestran este efecto, entonces puede zanjarse la controversia”. El sistema propuesto “suena interesante y práctico”, dice. “La clave está en los detalles”.

Entrevista al Físico Joaquín Sacanell, especialista en ciencia y tecnología de materiales

Radiografía de una celda de combustible: “Mediante el uso de nanotubos es posible optimizar la captura de oxígeno en celdas de combustible”.

(23/08/10 – Agencia CyTA-Instituto Leloir / Divulgación GIyANN-CNEA. Por Laura García)-. Joaquín Sacanell es especialista en materiales e investigador del Conicet. Se doctoró en física, en la Universidad de Buenos Aires y trabaja en el Centro Atómico Constituyentes de la Comisión Nacional de Energía Atómica (CNEA), en la provincia de Buenos Aires. Recientemente, visitó la ciudad de San Carlos de Bariloche para participar del “X Encuentro de Superficies y Materiales Nanoestructurados” organizado por la CNEA.

En esta nota, Sacanell realiza una “radiografía” de las celdas de combustible: cómo funcionan, cuáles son los desafíos actuales para su desarrollo, y de qué se trata la experimentación que su grupo realiza sobre materiales que capturan oxígeno de forma eficiente. Además, cuenta por qué se explora la opción del metano en esos dispositivos que hoy se investigan en todo el mundo por sus aplicaciones en el universo de los automotores y en pequeños dispositivos como los celulares.

-El campo de la “física experimental del estado sólido” tiene un nombre difícil, ¿qué investigan en concreto en su grupo?

- Nos interesa entender cuáles son las interacciones que hacen que un material cambie sus propiedades ante ciertos estímulos externos. Por ejemplo, observar qué ocurre cuando se le acerca un imán. Para estudiar esos efectos y sus posibles aplicaciones, sometemos los materiales a estímulos de manera controlada y medimos las propiedades que nos interesan. En particular, en nuestro grupo medimos la resistencia eléctrica, que sería básicamente cuánto le cuesta a la corriente eléctrica circular por un cable. Estudiamos cuáles son los parámetros que tienen influencia en la resistencia eléctrica, y cuáles son los estímulos externos que pueden hacer que ésta cambie. De ese modo, se pueden conseguir materiales en los que una mayor o menor resistencia eléctrica se obtenga con sólo cambiar un estímulo externo.

-¿Podría dar un ejemplo de ese tipo de material?

-Sí, pensemos por ejemplo en una lamparita conectada a una pila con cables fabricados con un determinado material. Si este material reduce su resistencia eléctrica al acercarle un imán, entonces por él pasará más corriente eléctrica. El resultado es que, en ese caso, la luz de la lamparita será más intensa utilizando un estímulo a distancia. Esos materiales existen y forman parte de nuestro campo de estudio. Otra de las líneas de trabajo que empezamos hace pocos años es el estudio de materiales con aplicaciones en energías limpias. Dentro de ese campo están las celdas de combustible, tema en el que trabajamos en estrecha colaboración con el doctor Diego Lamas del Centro de Investigaciones en Sólidos de CITEFA.

-¿Cómo funcionan las celdas de combustible?

-De modo parecido a una pila. La diferencia es que una pila, por ejemplo de una linterna, tiene dos contactos y toda la parte química está dentro de esa pila. Allí hay sustancias químicas que reaccionan y provocan un desequilibrio de cargas eléctricas capaces de producir una corriente eléctrica que se utiliza para prender la lamparita de la linterna. La celda de combustible tiene un principio de funcionamiento similar, pero los elementos que reaccionan están en el exterior de la celda. Por ejemplo, si se le acerca hidrógeno de un lado y oxígeno del otro lado, se produce una reacción química equivalente a la que ocurre en la pila y se puede generar una corriente eléctrica. Los autos a hidrógeno funcionarían con este principio de las celdas de combustible.

-¿Qué materiales se utilizan en las celdas de combustible?

-Las fórmulas químicas de los materiales utilizados en celdas de combustible suelen ser complejas, porque tienen combinados de lantano, estroncio, cobalto, entre otros. Es una fórmula química que combina metales y oxígeno. Son materiales de la familia de los “óxidos complejos”. La celda de combustible en sí suele tener un tamaño “macroscópico”, desde el de una batería de un reloj o una moneda al de una batería de auto o aún mayor. Pero si uno mira con microscopio los materiales que forman las celdas sobre las que nosotros trabajamos, se observa que son materiales cerámicos. Una celda prototípica como las que se ensayan en nuestro laboratorio, no se parece a una pila como las que conocemos, contenida en una estructura metálica, sino que es simplemente una pastilla cerámica. De un lado y del otro se le colocan los materiales que reaccionan con oxígeno e hidrógeno.

-¿En su grupo con qué materiales trabajan?

-Con los materiales que reaccionan con el oxígeno, es el electrodo conocido como “cátodo”. Lo que nos interesa es tener un material que optimice la captura del oxígeno. Si uno tiene un material con superficie plana, como una mesa, y se le acerca oxígeno, el oxígeno se va a ir depositando sobre esa superficie. Pero si se le hacen agujeritos muy chiquitos, el oxígeno tendrá más lugares donde quedar capturado.

-¿Eso sería un material poroso? ¿Cómo lo fabrican?

-Sí, nosotros hacemos películas muy porosas a partir de nanotubos, que son pequeños cilindros hechos con esa fórmula estrambótica de una mezcla de materiales como el lantano, el estroncio y el cobalto. Para fabricarlo, se debe generar una reacción química: el proceso incluye hacer una solución de agua, un sistema de filtrado y un tratamiento térmico en un horno. El resultado es un polvo negro que cuando se lo mira con un microscopio se observa que está formado por pequeños cilindros. Su diámetro es del orden de un micrómetro, o sea, es mil veces más chico que un milímetro. Las paredes de esos cilindros están formadas por nanopartículas. Luego depositamos esos tubos sobre una pastilla de cerámica y estudiamos las propiedades eléctricas de ese material en presencia de oxígeno. La idea es justamente obtener un material lo más poroso posible para garantizar el acceso de los gases a las celdas de combustible. Sabemos además que el hecho de que esté formado por nanopartículas también juega un rol fundamental en las propiedades.

-¿Cómo llegaron a esa fórmula química?

-Se conoce desde la década de 1940, y el nombre del material es “perovskita” de lantano, estroncio y cobalto, también se lo llama “cobaltita”. Se lo estudia desde hace tiempo porque tiene varias propiedades interesantes. Una de las propiedades interesantes que tiene es que es metálico, o sea que conduce bien la electricidad. Además, el oxígeno tiene una alta movilidad dentro de esa estructura, algo que también nos sirve porque queremos que el oxígeno entre, reaccione y vaya hacia el electrolito. Nosotros no inventamos ese material, se hace en laboratorios, ya que no existe en la naturaleza. Lo que hicimos nosotros fue fabricarlo en forma de nanotubos para aplicarlo en este material poroso que captura oxígeno.

-¿Cómo actúa el oxígeno en la celda de combustible?

-La reacción química ocurre con el oxígeno porque se necesita hacer el transporte de dos especies. La celda es una pastilla que por fuera tiene que funcionar como una pila. Pero hay que tener en cuenta que todos los materiales tienen cargas positivas y negativas que se cancelan para que la materia sea eléctricamente neutra. Si se le “extraen” electrones, que son los que provocan la corriente eléctrica, se tiene que compensar esa carga de alguna manera. Este material compensa la carga “moviendo” iones de oxígeno, o sea, átomos de oxígeno que están cargados. Entonces, por afuera se genera una corriente eléctrica que se utiliza para un fin determinado, por ejemplo encender un aparato, y por adentro de la celda de combustible, esa carga se compensa moviendo iones de oxígeno. Podría haber otro ión, algunas funcionan moviendo hidrógeno. También por ejemplo se utilizan pilas de litio, pero el proceso con litio es mucho más costoso como para ser utilizado en una celda de combustible, y aparte no tenemos gases que contengan litio.

-¿Y luego qué ocurre en la celda de combustible?

-El oxígeno se deposita en este material cerámico poroso. Con los electrones que vienen en el circuito externo a la celda, se “extraen” electrones del hidrógeno en un electrodo llamado “ánodo” y se los lleva al electrodo que está en contacto con el oxígeno, el “cátodo”. Esos electrones producen una reacción que se llama “reducción del oxígeno”, que hace que el oxígeno quede cargado, y después ese oxígeno viaja al ánodo, pero por adentro de la celda. De nuevo, se tiene carga compensada del otro lado, y se cierra el circuito. La corriente eléctrica sigue funcionando siempre y cuando le agregues oxígeno e hidrógeno a la celda.

-¿Y el hidrógeno qué rol juega en una celda de combustible?

-El hidrógeno provee los electrones que se necesitan para hacerlos pasar por el circuito: se los lleva hacia el otro lado de la celda, allí ocurre la reducción del oxígeno, luego el oxígeno reducido pasa hacia el lado del hidrógeno, y el único residuo es la combinación del hidrógeno que quedó de un lado y el oxígeno que vino del otro lado. El residuo es agua. El hidrógeno es lo que llamamos el “combustible” de la celda.

- En el mundo, ¿en qué punto se encuentra el desarrollo de las celdas de combustible?

-A nivel mundial, los prototipos de celdas de combustible están bastante desarrollados, aunque no a nivel comercial. Ya hay motores de autos que funcionan con hidrógeno. El problema más grave es que almacenar hidrógeno todavía es muy difícil y caro. Además es peligroso almacenar hidrógeno, porque es muy volátil. Es probable que una de las formas de obtener hidrógeno en el futuro de modo masivo sea utilizando energías renovables, como la solar o la eólica. Eso excede mi campo de investigación, pero hay ciertos desarrollos experimentales que consisten en obtener energía eléctrica a partir de la energía eólica. Y ese proceso luego es utilizado para separar el hidrógeno del agua, y luego utilizar ese hidrógeno en la celda de combustible, obtener agua y cerrar el ciclo.

-¿En qué estado está su trabajo de investigación sobre el material que captura oxígeno?

-Bastante avanzado, funciona mucho mejor que los materiales comerciales. El rendimiento es muy alto, pero no tenemos recursos ni infraestructura ni experiencia para hacer un desarrollo más allá de un prototipo. Sólo estudiamos las propiedades de los materiales, hacemos la ciencia básica previa a las aplicaciones. Dentro del proyecto en el que trabajamos con gente de CITEFA está planeado hacer prototipos de celdas de combustible como una forma de testear nuestros materiales. Sin embargo, como el hidrógeno es tan complicado, estamos trabajando con celdas que además podrían funcionar con metano. El metano se obtiene del gas natural. Es más fácil trabajar con ese gas, aunque produce efecto invernadero, utilizado en celdas produce mucho menos que el motor de combustión. Nuestra idea es utilizar celdas con metano en una primera etapa, como alternativa al hidrógeno que es mucho más complicado y más caro.

-¿Trabajan siempre con altas temperaturas?

-La temperatura es una variable que nos interesa, porque las celdas de combustible con las que trabajamos operan a altas temperaturas. Otras operan a cien grados y algunas a mayores temperaturas. Las que hacemos en nuestro laboratorio operan típicamente a mil grados, y lo que uno intenta es bajar esa temperatura porque es difícil que cualquier material resista esa temperatura. Parte de nuestra investigación es obtener materiales que operen a menores temperaturas, reducirla a 700 u 800 grados. Hay que pensar que las celdas de combustible de laboratorio pueden tener un tamaño muy localizado con lo cual no suele ser difícil calentarlas. Lo que es difícil es calentar celdas muy grandes para generar altas potencias, pero no es complicado obtener pequeños dispositivos donde el calentamiento esté localizado en una pequeña región.

-Por ejemplo, para un MP3 o un celular.

-Allí, las celdas que tienen más chances son las que funcionan a 100 grados, aunque es el mismo principio de funcionamiento, un campo totalmente distinto en cuanto a investigación y desarrollo.

-¿Y ustedes por qué trabajan con las de mayor temperatura?

-Porque funcionan con metano, las otras no. Y con oxígeno, todas. El oxígeno viene de un lado siempre, y del otro lado viene o hidrógeno o metano. Hay otras contras: las que funcionan a 100 grados necesitan usar mucho platino. Y eso es carísimo. Por eso uno busca alternativas donde no se use platino, y las que funcionan a mil grados no precisan platino. Reducir la temperatura es un gran desafío.

-Para terminar, aquí en Bariloche hace poco tiempo toda la ciudad estuvo siguiendo la llegada a la cima del Everest de unos andinistas locales, y uno de los desafíos era la poca densidad de oxígeno. El material que están estudiando en su laboratorio ¿podría tener alguna aplicación en una especie de tanque o aspiradora que capture grandes cantidades de oxígeno en las alturas?

-Es una idea interesante, pero no lo sé (risas).

-¿Cuáles son los siguientes pasos en su grupo de trabajo con respecto a estos materiales?

-Actualmente seguimos estudiando el efecto del tamaño de los distintos componentes, orientados a optimizar las propiedades mediante el uso de estructuras de tamaño nanométrico. El paso siguiente es probar los materiales en celdas prototípicas y tratar de encontrar nuevos materiales para investigar.

Fuente: http://www.agenciacyta.org.ar/2010/08/entrevista-al-fisico-joaquin-sacanell-especialista-en-ciencia-y-tecnologia-de-materiales/
La revolución silenciosa de la biotecnología


Bifes de chorizo de vaca clonada, “sopas biológicas” destinadas a reemplazar tejidos u otros órganos, bacterias que trabajan para la industria, o combustibles producidos a partir de celulosa. Esos y otros ejemplos aparecen a diario entre las noticias que difunden los medios, provocando cada vez menos sorpresa en un público, que parece haberse familiarizado con los avances de la biotecnología. El biotecnólogo argentino Alberto Díaz plantea este y otros temas en “La revolución silenciosa. Biotecnología y vida cotidiana”, un libro recién editado por ’Capital Intelectual’ que busca “echar luz en la confusión generalizada”.

(20/08/10 – Agencia CyTA-Instituto Leloir)-. El estudio del metabolismo de las bacterias de los intestinos de las termitas para desarrollar tecnologías de producción de energía a partir de biomasa, bifes de chorizo de vaca clonada, la selección de embriones para la fertilización in vitro, la clonación, las células madre y el crecimiento físico de Leonel Messi, son algunos de los tantos temas que aborda el científico Alberto Díaz en su libro “La Revolución Silenciosa. Biotecnología y vida cotidiana” (Editorial Capital Intelectual).

A través de esta publicación, Díaz que es químico y director del Centro de Biotecnología Industrial del Instituto Nacional de Tecnología Industrial (INTI), introduce al lector no especializado en el mundo de la biotecnología y su impacto en la vida cotidiana con un lenguaje ameno y accesible. Para ahuyentar ese aire solemne que suelen tener varios libros, Díaz afirma que su obra puede leerse de varias maneras: “No hay una lógica desde el primer capítulo. No tiene ni comienzo ni fin”.

“La idea original para escribir el libro fue que constantemente aparecen notas, artículos, en los medios gráficos y audiovisuales sobre novedades de las ciencias biológicas que en el corto o mediano tiempo se transforman en biotecnología, es decir, en productos, técnicas, y servicios, entre otras cosas, que pasan desapercibidos salvo para el especialista”, señaló a la Agencia CyTA el licenciado Díaz. Y agregó: “Pero esos resultados están y van afectar fuertemente nuestras vidas, no sólo a nivel personal sino también en los sectores productivos, en la empresas, y en otras esferas de la sociedad. Por esta razón, menciono artículos de los diarios, y luego también de revistas más especializadas, para demostrar los constantes avances a nivel industrial, ya que con cada ‘onda’ de nuevas técnicas, resultados, aparecen nuevas empresas que trasladan lo que sale de las universidades, de los institutos de investigación, a la sociedad, al mercado.”

El futuro que viene

La biotecnología es una tecnología que permite fabricar productos nuevos. “Está muy pegada a la ciencia porque es constante la influencia de esta sobre la biotecnología (y también de ésta sobre la ciencia): pero es un instrumento de producción”, enfatizó Díaz. Y continuó: “Se la define como la utilización de células o sus componentes para tener productos o servicios. Pero el gran salto, y por eso muchos hablan de biotecnologia moderna, comienza a fines de la década de 1970 cuando se comienza a manejar la información genética, y se la puede pasar de un organismo vivo a otro, por ejemplo, de una célula humana a una bacteria para así fabricar insulina; o de un hongo a una célula vegetal para generar plantas resistentes a herbicidas. El tema es que esa tecnología básica que hoy se realiza en centros de investigación hay que llevarla a la producción industrial. Esto significa tener capacidad de fabricar en esa escala, comercializarlos, registrar lo productos, cumplir con regulaciones y usar patentes, entre otras cosas.”

Con el avance de la biotecnología, no solo los medicamentos y los diagnósticos serán muy distintos a los actuales, sino que también es posible que “se logren regenerar algunos de nuestros tejidos y órganos. También tendremos nuevos materiales biodegradables, nuevos alimentos y la fusión cada vez más acelerada de la informática con la biología impactará decididamente en nuestras vidas de todos los días. Quizás en no mucho tiempo sea habitual que se secuencie el genoma de cada persona para saber si somos potenciales portadores de alguna enfermedad, entre otras innovaciones científico- tecnológicas”, subrayó Díaz.

Biotecnología y derechos humanos

Otro de los temas abordados por Díaz se refiere al buen o mal uso de la biotecnología. “Puede emplearse para controlar a las personas y aumentar la discriminación, pero también puede favorecer los derechos humanos y traer beneficios sociales si se ejerce con respeto a las personas”, subrayó Díaz quien en su libro destaca el trabajo de las Abuelas de Plaza de Mayo cuya demanda e intercambio con científicos desencadenó el desarrollo de una técnica para la identificación de los niños sustraídos de sus padres detenidos desaparecidos durante la dictadura militar.

Para eso era necesario crear un método que estableciera el parentesco utilizando los marcadores genéticos de los posibles abuelos y otros parientes colaterales. “La técnica, denominada ‘Reacción en Cadena de la Polimerasa’, que permite secuenciar el ADN mitocondrial (heredado por la madre) llevó a que se pudieran identificar hasta el día de hoy más de cien nietos en base a la existencia de un solo familiar”, indicó Díaz. Y agregó: “El accionar de las Abuelas es una de las grandes contribuciones que se han hecho a la ciencia y la tecnología en Argentina. Es un modelo de trabajo para tener en cuenta dado que fue la demanda social la que llevó a tener esa tecnología llevada a delante en cooperación internacional entre investigadores argentinos que estaban exilados, otros latinoamericanos también exilados e investigadores de Europa y Estados Unidos.”

Del laboratorio a la gente

Entre otras muchas figuras destacadas de la ciencia internacional y nacional Díaz menciona al doctor Enrique Belocopitow a quien describe como “un científico siempre preocupado por que se aplique y se use la ciencia como una base para el crecimiento de nuestro país.”
Belocopitow, que fue discípulo de Luis Federico Leloir, dejó de lado su trabajo con las enzimas y “dedicó sus últimos 25 años a difundir la ciencia a través de los medios de comunicación, a sacarla del ostracismo y ponerla al nivel de todos. Es algo parecido a lo que pretendió Galileo Galilei con su pequeño telescopio: llevar las estrellas a la mesa familiar. Así fue que ‘Belo’ trabajó y luchó hasta conseguir financiamiento para crear becas y cursos donde formó generaciones de periodistas científicos que hoy están escribiendo en muchos medios del país y del exterior”, señala Díaz en su libro en el que describe a Belocopitow como “un excelente profesor, de esos que ponen nerviosos a los estudiantes porque los hacen pensar; aprendíamos de él hasta en los exámenes.”Asimismo, destaca que Belocopitow –creador del Programa de Divulgacion Científica y de la Agencia de Noticias Científicas y Tecnológicas del Instituto Leloir – era un entusiasta y motivaba a los estudiantes con talento. “Así fue como a principios de la década de 1980, cuando yo estaba comenzando a dirigir un proyecto de biotecnología en la industria farmacéutica nacional, Belo me insistió para que me entrevistara con Jorge Sabato (físico argentino que propuso lo que hoy en día se conoce como el “Triángulo de Sábato” que consiste en un modelo de política científico-tecnológica que articula el sector científico, productivo y estatal) y comprobé que Sabato era, como Belo, un hombre excepcional. Era sencillo, brillante, porteño, enemigo de la ‘chantocracia’ nacional. Él me ayudó a entender ‘las fábricas de tecnología’, a estudiar con sus diálogos y sus escritos y con sus actitudes de vida. Con Sabato, aprendí también a valorar la tecnología, la innovación, y su relación con la ciencia, con la comercialización y con las personas, entre tantas otras cosas”, concluyó Díaz en su entrevista con la Agencia CyTA.

Fuente: http://www.agenciacyta.org.ar/2010/08/la-revolucion-silenciosa-de-la-biotecnologia/
De Theodor Adorno a Paul Desmond, dos miradas de un mismo paisaje 

Marcelo Jeremías 

"Ha llegado a ser evidente que nada referente al arte es evidente"... "ni siquiera su derecho a la existencia".

Así comienza escribiendo Theodor W. Adorno su Teoría estética en 1969 donde excluye la posibilidad de una teoría del arte anteponiendo en la palabra "estética" un punto de perspectiva previo intentando posiblemente así validar un lugar desde donde "manipular" el océano de la información social relacionado al arte. Y adoptó este enfoque pese a haber compuesto música atonal en su juventud lo que le habría dado la posibilidad de escribir simplemente como músico.

De todas maneras Adorno fue un ensayista original y un pensador que supo deshilvanar ideas en criterios que con el tiempo la industria de la cultura articuló en lo que se dio en llamar "cultura de masas" y en esto anticipó el malestar de la civilización ante la pérdida del misterio relacionando la aparente libertad del artista con la pérdida de libertad de la sociedad y ésta no parece ser una relación muy feliz ya que los problemas básicos de identidad o libertad en la sociedad no son cosas impuestas premeditadamente por los artistas para después "vender canciones de protesta o de consuelo", es que los artistas nunca moldearon las necesidades humanas ni mucho menos los límites sino que, en el mejor de los casos, hicieron ver a través de sus obras nuevos paradigmas siendo muchas veces una obra la consecuencia directa de la "necesidad" de comer, de afecto o de dinero en el mundo moderno y no una representación de ninguna idea filosófica, psicológica o metafísica del problema de la libertad. Sin embargo es posible que a mediados del siglo XX algunos personajes hayan visto en la expresión artística al crisol desde donde moldear la identidad de las masas y por lo tanto cargaron (de forma favorable o negativa) sobre quienes ellos consideraron que eran "artistas"
y aquí aparece en el juego la "industria de los medios" (de comunicación) y los "reyes ocultos" que son los propietarios de las cadenas (conglomerados) de difusión.

Aquí otra frase de Adorno extraída de su "teoría...":_"el arte, al irse transformando, empuja su propio concepto hacia lugares que antes no tenía".

Y en esta idea vemos que la secularización de la expresión humana trae (de modo paralelo a la solidificación de la sociedad de mercado) determinadas pautas que se potencian según el entorno tecnológico hacia una definición de identidad de nuevas "tribus" que comulgan crisis existenciales al hallarse habitando cárceles de cemento con barrotes invisibles (y esa es una de mis definiciones predilectas de lo que es una gran ciudad).

Luego dice :_"el arte se determina por su relación con aquello que no es arte". Aquí vemos la estructura dialéctica de su forma de narrar aunque esta frase tiene una validez relativa porque el proceso de identificación con los maestros de la música es tan importante para un músico en su formación como la cuestión de la originalidad de una obra en una segunda etapa.
De todos modos uno no entiende muy bien porqué razón Adorno quedó encasillado dentro de la categoría de pensadores marxistas ya que en definitiva en su pensamiento describe los distintos fenómenos relacionados con la comunicación de hacedores de expresión artística en el contexto de la sociedad de mercado (cultura de masas) cuyo último capítulo en crisis (que por algunos estudiosos es vista como sistémica) es lo que hoy llamamos "neoliberalismo", entonces este autor trabajó (aunque de modo crítico) para una formulación estética de la sociedad de mercado que en definitiva hoy rige buena parte del planeta.
En otra frase dice :_"el arte es la antítesis social de la sociedad y no se puede deducir inmediatamente de ella..." .
Este es un concepto evidentemente erróneo en el sentido de que hoy día la sociedad hace una lectura de lo que es arte a partir de (por dar un sólo ejemplo) lo que ve en el escenario y así un artista que vive su vocación en la escena está plenamente integrado a la sociedad innegablemente y del mismo modo cada expresión tiene su espacio "dentro" de su mundo aunque en su contenido una novela (por ejemplo) hable de "otras realidades".
El problema de fondo (para Adorno) en todo caso fue intentar realizar una teoría estética escindida de una "idea del hombre" y consecuentemente de una ideología del ser humano.
Es que no es viable una teoría estética sin una ideología del "yo" y aquí retornamos al viejo problema de las "clases sociales", asunto que en el contexto de la civilización de mercado se intentó superar irracionalmente y así hoy día vivimos las nefastas consecuencias de esta situación.
Adorno escribió :_"No hay arte que no contenga en sí, aquello contra lo cual choca..." (Aquí en un sentido nos vemos con un psicologísmo extremo típico de la generación en la que se "descubrió" el psicoanálisis como herramienta de la psicología en la pretensión de "ordenar" las clases sociales según la respuesta de las personas a ciertos impulsos y desconsiderando el problema de la dignidad humana como algo común e inherente a todas las personas, es decir que la técnica psicoanalítica se usó, en vez de para construir una sociedad mejor, para solidificar las insalvables injusticias y contradicciones que el capitalismo totalitario genera en sí mismo del mismo modo que en la industria farmacéutica se liberaron al mercado medicamentos que no necesariamente curan a la gente por simple cuestión de dinero). Y de aquí viene la famosa frase de Pichon Riviere (miembro fundador de la escuela psicoanalítica argentina y posteriormente de la escuela denominada psicología social) cuando dijo (refiriéndose a ciertos psicoanalistas cultores de la "ultraindividualidad"):_"aquellos cafiyos de la angustia ajena" exponiendo así la falta de consciencia social y la crisis moral consecuente de estos intelectuales. 
Adorno en su "Teoría ..." dice:_"toda obra de arte es un instante, toda obra de arte conseguida es una adquisición, un momento de detenerse en el proceso, al manifestarse éste al ojo que lo contempla. Si las obras de arte son respuestas a sus propias preguntas, también se convierten ellas por este hecho en preguntas..."
Y esta idea es atractiva y estimulante para un hacedor de expresión artística ya que encierra en sí algunas ideas tal vez "orientales" o antiguas pero de todas maneras positivas hacia el hecho de trabajar con sonidos, colores, palabras o gestos desde algún instante particular de la memoria como faro o punto de referencia.
Un autor que definió su teoría estética de modo mucho más sencillo (pese a ser graduado en lengua inglesa en la universidad) fue Paul Desmond y aquí dos frases de esta persona quien fue además compositor de una melodía que llega a nosotros desde el Real Book con el título de "Take five" :

_"He ganado varios premios al saxo más lento del mundo, así como un galardón especial al silencio en 1961".
_"Yo ya había pasado de moda antes de que nadie me conociera".




Dos imágenes de Paul Desmond con su saxo alto y dos frases más que esclarecen su oxigenada ideología:

_ Probé a practicar unas pocas semanas y acabé tocando demasiado rápido.

– Creo que de forma inconsciente quería sonar como un martini seco.
 





Fuente: http://jazzvocesyfronteras.blogspot.es/
La invisibilidad, el vidrio y los metamateriales 


Piensa en el poder demostrado por el anillo de J. R. R. Tolkien en El Señor de los Anillos, o en los dispositivos de ocultación de los Romulanos de Star Trek (que podían hacer desaparecer de la vista a sus naves de guerra), o en la capa mágica de Harry Potter, o en la prenda que hace que los jugadores se desvanezcan en el clásico videojuego "Dungeons and Dragons”. El poder de hacer desaparecer a alguien o a algún objeto hasta convertirlo en invisible siempre ha fascinado a la humanidad. En la Universidad Tecnológica de Michigan, Elena Semouchkina está trabajando para lograrlo. Te contamos algunos detalles de su trabajo.

Eso es exactamente lo que está haciendo Elena Semouchkina, profesora de ingeniería eléctrica e informática de la Universidad Tecnológica de Michigan. Ella ha encontrado maneras de utilizar la resonancia magnética para captar los rayos de la luz visible y la ruta que ésta toma en torno a objetos hasta lograr hacerlos invisibles al ojo humano. Semouchkina y sus colegas de la Universidad Estatal de Pensilvania, donde también es profesora, recientemente informaron sobre su investigación en la revista Applied Physics Letters, publicada por el Instituto Americano de Física. Los co-autores son Douglas Werner, Carlo Pantano y Semouchkin George. En la publicación se describe el desarrollo de una capa no metálica que utiliza resonadores idénticos dentro de un cristal de vidrio de calcogenuro, un tipo de material dieléctrico que no es conductor de la electricidad. En simulaciones por ordenador, una capa específica de este tipo de cristal hecha sobre objetos afectados por ondas de infrarrojos (es decir, con longitudes de onda de cerca de un micrón o una millonésima de un metro de largo) sencillamente provoca que estos objetos desaparezcan de la vista, es decir, se tornen invisibles.

La primera aplicación de los vidrios de calcogenuro tuvo lugar en el campo de la xerografía, pero en los años 60 del siglo pasado encontraron utilidad en el área de las nanotecnologías aprovechando la diferencia de conductividad eléctrica entre las fases vítreas y cristalinas que este tipo de cristal posee. Este fenómeno dio lugar a su incorporación en circuitos opto-electrónicos. El proceso tiene lugar por la “amorfización” y “re-cristalización local” de una capa de vidrio de calcogenuro. Se calienta localmente la capa cristalizada hasta una temperatura superior a su punto de fusión por medio de un impulso láser. Luego de esto, la zona caliente se enfría a una gran velocidad, muy superior a la velocidad crítica de amorfización del calcogenuro, dando lugar a la formación en la matriz cristalizada de una marca amorfa con una conductividad eléctrica diferente. Mediante la medición de las propiedades reflectivas (óptica) resultantes es posible leer la información registrada en el material. Primero fue Matsushita la que comenzó con la fabricación de discos DVD y posteriormente Intel y Samsung introdujeron esta tecnología en memorias RAM capaces de alcanzar velocidades de conmutación muy grandes con consumos eléctricos muy bajos y densidades de información altísimas.
Los anteriores intentos por parte de otros investigadores utilizaban anillos de metal y alambres. "El nuestro es el primero en hacer “el encubrimiento” sobre objetos cilíndricos empleando vidrio", dijo Semouchkina. Su capa de invisibilidad utiliza metamateriales que en la práctica son materiales artificiales con propiedades que no existen en la naturaleza. Esta capa está hecha de resonadores de cristales minúsculos dispuestos en un patrón concéntrico dentro de la forma de un cilindro. Los "rayos" de la configuración concéntrica producen la resonancia magnética requerida para “doblar” las ondas de luz alrededor de un objeto, y este fenómeno transforma a dicho objeto en invisible. Los metamateriales empleados en el proceso se comportan como pequeños resonadores en lugar de átomos o moléculas de materiales naturales. Y gracias a esta propiedad se sitúan en un espacio intermedio entre los materiales convencionales utilizados por la ciencia y la ingeniería eléctrica. Según la Sociedad Americana de Física, los metamateriales son considerados uno de los tres descubrimientos más importantes de la década en el campo de la física.

Los rayos de luz se reorientan al salir provocando la invisibilidad del objeto cubierto
 
Los rayos de luz se reorientan al salir provocando la invisibilidad del objeto cubierto
En la actualidad, Semouchkina y su equipo están experimentando con un manto de invisibilidad para trabajar a frecuencias de microondas. En este caso, el manto está construido a partir de resonadores cerámicos. Están utilizando para este trabajo la cámara anecoica de la Universidad Tecnológica de Michigan, esto es, una habitación (con el aspecto de una dantesca caverna), dentro del laboratorio del Centro de Recursos de Energía Eléctrica, en cuyas paredes hay (estratégicamente alineados) conos de espuma altamente absorbente de color gris carbón. Vale aclarar que estos espacios especiales se utilizan para simular los ensayos como si se estuviera trabajando a campo abierto (por ello, todas las paredes se recubren de material absorbente). Allí, las antenas de transmisión y recepción utilizan el espectro de las microondas, que poseen longitudes de onda mayores que la luz infrarroja y alcanzan resonancias de hasta varios centímetros de largo. Utilizando estos medios, han logrado “hacer desaparecer” cilindros metálicos de 5 a 8 centímetros de diámetro y de 8 a 10 centímetros de alto.

Los metamateriales están aportando nuevas herramientas a las investigaciones de invisibilidad
 
Los metamateriales están aportando nuevas herramientas a las investigaciones de invisibilidad
"A partir de estos experimentos, queremos pasar a frecuencias más altas y longitudes de onda más pequeñas", apuntó la investigadora. "Las aplicaciones más emocionantes serán cuando alcancemos el espectro de las frecuencias de la luz visible." ¿Así que algún día será posible que la policía pueda ocultar todo un equipo SWAT o el Ejército pueda hacer lo mismo con un tanque? "Es posible en principio, pero no en este momento", dijo Semouchkina.

 Los titanes de Viktor Safonkin


Partiendo de un realismo clasicista al que se retuerce y oniriza con un surrealismo daliniano, Safonkin introduce múltiples referencias a la cultura europea. A esos personajes mitológicos de titánico talante, se unen referencias al Cristianismo, a la Unión Soviética o a la sociedad industrial decimonónica. No sé si se podría hablar de una nueva mitología, pero sí de una original reinterpretación de la misma muy cercana al espíritu de nuestra época, dado a la saciedad y al agotamiento cultural. Al europeo del XXI sólo le queda el eclecticismo y la distorsión y exageración del arte del pasado.




Esta crucifixión es de las más originales que he visto. Resulta novedoso centrar la atención en el endurecido rostro del verdugo.



Aquí tenemos al Marte de la revolución industrial, general propio de la Primera Guerra Mundial, del
nacionalismo romántico.




Un Gernika posmoderno.



Visto en Uno de los nuestros. Más en la web de Safonkin.

Fuente:  http://vonneumannmachine.wordpress.com/2010/07/23/los-titanes-de-viktor-safonkin/