3 diciembre 2024

Luz líquida cuántica superfluida ¿Nuevo estado de la materia?

Es un artículo ensallo.

 

Esto es un dispersor de fotones láser, que rompe sin perder coherencia, un haz láser, esto es, cubre todo el medio que transita homogéneamente. Como es un efecto nuevo descubierto por mí, lo llamo «efecto adunti». 🙂

(Luz líquida cuántica superfluida)

Lo dejo por si alguna mente más lúcida que la mía completa el proceso, que me parece que va en la buena dirección.

 

8 septiembre 2024

Material que se enfría bajo el sol o la noche cálida y, célula termoeléctrica para aprovechamiento de la diferencia de temperatura.

Un espejo de alta tecnología, que irradia calor al espacio, enfriará los edificios

Un equipo de ingenieros de la Universidad de Stanford (EEUU) ha inventado un revolucionario material de revestimiento que podría ayudar a enfriar los edificios sin aire acondicionado. Ultrafino y de múltiples capas, el material está diseñado de manera que sea rentable para su aplicación a gran escala en tejados de edificios. Podría reducir notablemente la demanda de electricidad.

 

Un equipo de ingenieros de la Universidad de Stanford (EEUU) ha inventado un revolucionario material de revestimiento que podría ayudar a enfriar los edificios sin aire acondicionado, incluso en días de sol y calor.

El material, que funciona irradiando calor y enviándolo directamente al espacio, es ultrafino (tiene 1,8 micras de espesor) y está compuesto de múltiples capas, informa la Universidad de Stanford en su web. Además, se  ocupa de la luz, tanto invisible como visible, de una novedosa manera.

La luz invisible -en forma de radiación infrarroja- es una de las formas en que todos los objetos y seres vivos emiten calor. Por ejemplo, cuando nos acercamos a un horno cerrado sin tocarlo, el calor que sentimos es luz infrarroja. Esta luz invisible es la que el nuevo material enviaría lejos de los edificios, hacia el espacio.

¿Qué pasa con la luz del sol que calienta los edificios? De esta luz –visible- también se ocupa el nuevo material, pues para ella funciona como un espejo increíblemente eficiente, reflejando hasta un 97% de ella.

El concepto ha sido denominado por sus creadores como “enfriamiento radiativo fotónico” e implica, por tanto, la descarga del calor infrarrojo del interior de los edificios y la reflexión de la luz solar que sobre estos incide, al mismo tiempo.  Juntas, la radiación y la reflexión, hacen que el refrigerador por radiación fotónica esté a 12 ºC menos que el aire circundante, durante el día. El material podría usarse tanto de día como de noche para enfriar estructuras.

El verdadero avance radica en cómo este material irradia el calor de los edificios, directamente al espacio. El revestimiento ultrafino fue fabricado cuidadosamente para enviar la luz infrarroja lejos de las estructuras, a la frecuencia precisa que le permite pasar a través de la atmósfera, sin calentar el aire. Esta es una característica clave, dada la amenaza del calentamiento global.

Aprovechar el frío del universo

El nuevo material está formado por siete capas de dióxido de silicio y óxido de hafnio, ubicadas sobre una capa delgada de plata.

Estas capas no tienen un espesor uniforme, sino que están diseñadas para crear un nuevo material. Su estructura interna está sintonizada para irradiar los rayos infrarrojos a una frecuencia determinada, como se ha dicho, impidiendo así que calienten el aire.

Los investigadores afirman, además, que el material está diseñado de manera que sea rentable para su aplicación a gran escala en tejados de edificios. Creen asimismo que, algún día, podría menguar la demanda de electricidad, en tanto en cuanto reduciría el gasto energético de los  sistemas de aire acondicionado. A nivel práctico, el recubrimiento podría ser colocado sobre un material más sólido, típico de la construcción.

El equipo ve en este proyecto un primer paso hacia el uso del frío del espacio como recurso. De la misma manera que la luz solar es una fuente de energía solar renovable, el universo frío podría suponer una extensión casi ilimitada donde volcar el calor. «Lo que hemos hecho es crear una forma que debería permitirnos aprovechar la frialdad del universo como disipador de calor durante el día», explican.

Referencia bibliográfica:

Shanhui Fan et al. Passive radiative cooling below ambient air temperature under direct sunlightNature (2014). DOI: 10.1038/nature13883.

Se pone este dispositivo en medio, para convertir la diferencia de temperatura, en corriente eléctrica.

Que se pone sobre la superfie enfriadora en forma de disco, con agujero, de igual exterior que el agujero interior. Sostenido sobre el material, por pibotes finos de plástico transparente.

8 septiembre 2024

Material cuántico revolucionario podría disparar la eficiencia de los paneles solares hasta un 190%.

Material cuántico revolucionario podría disparar la eficiencia de los paneles solares hasta un 190%

Un nuevo material cuántico podría revolucionar la energía solar

Un equipo de investigadores de la Universidad de Lehigh en Pensilvania (Estados Unidos) ha desarrollado un material cuántico que podría disparar la eficiencia de los paneles solares. El hallazgo, publicado en la revista Science Advances, abre la puerta a una nueva generación de placas solares más eficientes y accesibles que podrían ayudar a afrontar las necesidades energéticas mundiales.

Superando los límites

El prototipo, que utiliza el nuevo material como capa activa en una célula solar, logra una absorción fotovoltaica media del 80 % y una eficiencia cuántica externa (EQE) sin precedentes: de hasta el 190 %. Este valor supera con creces el límite teórico de eficiencia Shockley-Queisser para materiales basados en silicio, establecido en 1961 en un 33,7 %.

Las claves del éxito

Cobre con las características del Oro

 

El salto de eficiencia del material se atribuye a sus característicos «estados de banda intermedios», niveles de energía específicos que se sitúan dentro de la estructura electrónica del material y que resultan ideales para la conversión de la energía solar.

Además, el material funciona especialmente bien con altos niveles de absorción en las regiones infrarroja y visible del espectro electromagnético.

Generación Múltiple de Excitones

En las células solares tradicionales, la EQE máxima es del 100 %, lo que significa que por cada fotón absorbido de la luz, se genera y capta un electrón. Sin embargo, algunos materiales avanzados, como el desarrollado por Lehigh, pueden generar y recoger más de un electrón a partir de fotones de alta energía, lo que se conoce como Generación Múltiple de Excitones (MEG) y permite una EQE superior al 100 %.

Capturando la energía que se pierde

Los estados de banda intermedios del nuevo material permiten capturar la energía de los fotones que se pierde en las células solares tradicionales, incluso por reflexión y producción de calor.

Un futuro prometedor

Para Chinedu Ekuma, físico de la Universidad de Lehigh y coautor del estudio, la gran eficiencia del nuevo material cuántico lo convierte en un «candidato prometedor para el desarrollo de células solares de nueva generación y alta eficiencia, que desempeñarán un papel crucial a la hora de abordar las necesidades energéticas mundiales».

Investigación y desarrollo

Aunque la integración del material cuántico en los actuales sistemas de energía solar requerirá más investigación, Ekuma sostiene que la técnica experimental utilizada para crear estos materiales ya es muy avanzada.

Este avance abre un futuro esperanzador para la energía solar, con la posibilidad de desarrollar placas solares más eficientes, baratas y accesibles que puedan contribuir a un futuro energético más sostenible.

Referencias:

23 mayo 2024

Regeneración de tejidos.



«

NOTICIA #1: REGENERACIÓN DE TEJIDOS MUERTOS CON UN SIMPLE CHIP

El 7 de agosto del 2017 se publicó en “Nature Nanotechnology” un estudio de Medicina bajo el título “Topical tissue nano-transfection mediates non-viral stroma reprogramming and rescue”. Desde mi punto de vista, este ha sido el descubrimiento más importante que he tenido la suerte de presenciar hasta el momento.

Veamos que nos cuenta este curioso estudio realizado por Chandan K. Sen et al.

La tecnología que Sen y su equipo utilizaron es la llamada Nanotransferencia de Tejidos (TNT) por sus siglas en inglés. Con esta tecnología usada en la Medicina Regenerativa, se pretendió desarrollar una “estrategia no viral fácil de implementar de reprogramación de tejidos locales a través de un dispositivo nanocanalizado validado con modelos de reprogramación nuevos y sólidamente establecidos de neuronas y endotelio inducido.”

Para este equipo de investigadores, se ha dado con una tecnología que juega con ventaja respecto a otros métodos, tales como el aislamiento (introducción de una célula de un microorganismo en un medio, sólido o líquido, esterilizado previamente) o la pluripotencia inducida (técnica de creación de células madre pluripotentes [iPS] a partir de células de nuestros tejidos sin usar embriones). Todo ello ha sido posible por los avances en reprogramación nuclear in vivo.

celulas ips

Arriba, células madre pluripotentes inducidas a partir de las células de la piel. Imagen: Laboratorio de Kathrin Plath, University of California, Los Angeles.

330px-Shinya_yamanaka10

Arriba, Shinya Yamanaka, uno de los descubridores de las células iPS. Merecedor del Premio Nobel del Fisiología del 2012 junto con John Gurdon.

Como ya hemos dicho, este descubrimiento se apoyó en la tecnología TNT. Esta nos permitirá repartir factores reprogramantes dentro de las células por el citosol mediante un campo eléctrico intenso y enfocado a través de nanocanales ordenados. [Figura 1a].

figura 1a TNT 2.pngDiagrama que nos muestra el proceso de la tecnología TNT en donde el electrón positivo se inserta intradérmicamente y el electrón negativo se une a la solución cargada. Entonces, se aplica un campo eléctrico de 250V para nanoperforar la membrana celular e inyectar la carga en el citosol.
Figura 2 TNT 2Los nanocanales están en contacto con la parte más externa de la membrana celular.

 

¿TNT o BEP? Pues la respuesta es clara, TNT.

1.- Según la Figura 1c, se demostró que la tecnología TNT producía una perforación ordenada, mientras que BEP (tissue bulk electroporation) producía una poración desordenada. Lo podéis ver aquí:

Figura 1c TNT 2Perfil de poración con diferentes células en donde aquellas tratadas con TNT están representadas con líneas continuas y aquellas tratadas con BEP están representadas con líneas discontinuas.

 

2.- Según la Figura 1d, se demostró que el uso de TNT estimulaba la presencia de AMB (Activated Bone Marrow o médula ósea activada) como se puede apreciar en el gráfico:

Figura 1d TNT 2Resultados de la expresión de la expresión de AMB para TNT versus para BEP 24 horas después de la transfección (proceso que consiste en introducir material genético externo a células eucariotas mediante plásmidos u otros). BEP fue llevada a cabo vía inyección intradermal de los plásmidos de AMB seguido de un pulso de campo eléctrico.

 

3.- BEP está en desventaja porque es una tecnología de transfección usual la cual hace que el reparto de genes tenga una naturaleza altamente fortuita lo que podría suponer la activación de la respuesta inflamatoria (imagen) e incluso la muerte celular. Por otra parte, si atendemos a TNT, nos encontraremos con que reparte los factores reprogramantes de forma más enfocada y abundante a nivel de 1 sola célula.

Respuestainflamatoria2 1.png

 

4.- Otro de los descubrimientos fue que, gracias a experimentos con FAM (fluorescein amitide) se corroboró que TNT puede repartir la carga genética en menos de 1 segundo y de forma no invasiva según indican las Figuras 1e y 1f.

Figura 1e TNT 2.png

Figura 1f TNT 2IVIS (Sistema de escaneo in vivo) [Figura 1e] y imágenes de microscopía confocal (microscopía que aumenta la resolución óptica y el contraste de un micrógrafo) [Figura 1f] de piel de ratón después de un tratamiento con TNT y ADN marcado junto con los factores ABM, respectivamente.
GFP es el “reporter gene” (en Biología Molecular, recibe este nombre el gen que busca fijarse en una secuencia reguladora de otro gen de interés de bacterias, animales o plantas) en el plásmido Ascl1.

 

5.- Sen y su equipo descubrieron que la TNT puede producir una respuesta ordenada que produzca aún más estímulos reprogramantes, más allá de la epidermis como verificaron con las figuras 1g, 1h i 1i:

Figura 1G TNT 2En esta gráfica se ven los resultados de la expresión genética de qRT-PCR en la epidermis y la dermis y se demuestra que la expresión de los genes pasó más allá del límite de transfección epidérmica.
Figura 1h TNT 2En este diagrama podemos ver el proceso de la propagación transfeccional mediada por EVs (vesículas extracelulares) desde la epidermis a la dermis.
Figura 1i TNT 2Análisis de qRT-PCR de la carga de EVs donde se muestran cargas significantes de ABM cADNs/mARNs.

 

6.- Exponiendo naive cells (células que se han diferenciado en la matriz ósea) a EVs con AMB aisladas de la piel y tratadas con TNT se podía conseguir que las EVs fueran absorbidas por células remotas y propagar la reprogramación. También se produjo una reprogramación en las células de la piel. [Figuras 1j, 1k, 1l, 1m y 1n].

Figura 1j TNT 2.png

Diseño experimental para confirmar si las EVs son un medio viable para que se lleve a cabo la transfección y la reprogramación.  
Figura 1k TNT 2Con esta miografía confocal vemos el fibroblasto embriónico de un ratón (rojo) que ha absorbido las EVs a las que les habían puesto ABM.
Figura 1l TNT 2.pngTejido de fibroblastos embriónicos de ratón en el que se muestran las iNs (neuronas inducidas) el 7º día después de haber sido expuestas a 24 horas de EVs con ABM.
Figura 1m TNT 2.png     Figura 1n TNT 2Resultados que muestran el incremento de la expresión Tuj1 (m) y el incremento de neurofilamentos (NF) (n) en la piel después de una transfección de ABM.

 

7.- Ahora viene lo bueno. Con la Nanotransferencia de Tejidos (TNT) se consiguió obtener excitabilidad neuronal tal y como muestra la Figura 1o:

Figura 1o TNT 2.pngLa actividad electrofisiológica está mostrada con barras representativas e indica cambios en la concentración iónica de la matriz extracelular. Esto es el resultado de la estimulación de un grupo de neuronas.
NT: La línea discontinua es el “ruido experimental”, NT 2: Cada barra representa el resultado de cada uno de los ratones.

 

Tras haber descubierto los 7 puntos anteriores y haber probado su éxito se lanzaron a desarrollar una metodología no-viral que pudiera reprogramar células de la piel en células endoteliales inducidas (iEC). Identificaron estos factores reprogramantes:

  • Etv2
  • Foxc2
  • Fli1 (EFF)

NT: EFF podía reprogramar fibroblastos primarios humanos y de ratones en iECs de forma rápida (<1 semana) y eficiente.

Una vez hecho esto en el panorama in vitro, lo hicieron el el panorama in vivo.

8.- EFF con TNT conllevó a un aumento en la vascularización (angiogénesis [creación de vasos sanguíneos nuevos a partir de otros ya existentes]) y el rescate de tejido de la piel bajo condiciones de isquemia (estrés celular causado por una disminución aguda o crónica del riego sanguíneo. Puede causar muerte celular). [Figura 2a, 2b y 2c].

Figura 2a TNT 2.pngFigura 2b TNT 2Figura 2c TNT 2Con un tratamiento de una sola sesión y unos pocos segundos de duración se consiguió un aumento de la angiogénesis (Pecam-1, vWF) del tejido de la piel.

 

9.- El reparto de EFF basado en TNT estimula el flujo sanguíneo en el área tratada en solo 3 días como se puede comprobar, sobre todo, en las imágenes de la Figura 2d. [Figura 2d, 2e y 2f].

Figura 2d TNT 2.png

Figura 2e TNT 2Imágenes con HRLS que muestran que se estimula la perfusión (flujo sanguíneo) en el área tratada con EFF a lo largo del tiempo.
Figura 2f TNT 2.pngEste escáner de ultrasonido de la piel tratada con EFF confirmó la presencia de vasos sanguíneos (@3mm de la superficie) con comportamiento pulsátil, lo que sugiere un éxito de la anastómosis (término que describe la unión de 2 elementos anatómicos con otros del mismo animal, en este caso) con el sistema circulatorio matriz.

 

10.- Una vez hecho esto, estudiaron si la reprogramación de la piel local con EFF tratada con TNT podía llevar a una reperfusión de tejidos isquémicos. Estos fueron los resultados: [Figura 2g,  2h y 2i].

Figura 2g TNT 2Experimento con un colgajo de piel que muestra el incremento de la necrosis del colgajo en el grupo de control en comparación con la piel tratada con EFF.
Figura 2h TNT 2.pngEscaneo que muestra el incremento del flujo sanguíneo en el tejido implantado tratado con EFF mediante TNT.
Figura 2i TNT 2Gráfico que recoge la cuantificación de la necrosis del pellejo de piel.

 

11.- Finalmente, querían demostrar si el reparto de EFF basado en TNT podía regenerar una articulación completa. Esto fue lo que obtuvieron: [Figura 3a, 3b, 3c, 3d, 3e y 3f]

Figura 3a TNT 2
Figura 3b TNT 2
Figura 3c TNT 2
Un tratamiento de una sola sesión de unos pocos segundos de duración llevó al incremento de la perfusión en la articulación seguido del corte transversal de la arteria femoral.
Figura 3d TNT 3Las articulaciones de los ratones del grupo de control muestran una mayor necrosis de tejidos que las articulaciones tratadas con EFF.
Figura 3e TNT 2Las medidas basadas en NMR de energéticas musculares confirmaron un incremento en los niveles de ATP y PCR para las articulaciones tratadas con EFF en comparación con el grupo de control.
Figura 3f TNT 2.pngAnálisis por immunofluorescencia del músculo gastrocnemio que muestra una estimulación de la angiogénesis.

Como habéis podido comprobar, se trata de una tecnología y un descubrimiento realmente asombroso ya que va a arrojar mucha luz sobre una rama de la Medicina relativamente nueva y de la cual no se tienen muchos conocimientos todavía, la Medicina Regenerativa.

Sen y su equipo, cuando publicaron el estudio dijeron que en vistas a 1 año les gustaría probar esta tecnología con humanos.

Ya ha pasado 1 año casi desde aquel deseo, así que espero que puedan seguir investigando con TNT y de paso llevarse el Premio Nobel si triunfan con las investigaciones. Yo estaré aquí para informar.

 

OOO

»

Dar Care (2017). Un pequeño chip para curar todos los órganos.[Fotografía]. España. Recuperada de https://dar.care/un-pequeno-chip-para-curar-todos-los-organos/

F. (2009, 06). Pluripotencia inducida a células. La alternativa a las células madre embrionarias.. Flagellum. Impulsando la comprensión de la ciencia.. Obtenido 07, 2018, de https://flagellum.wordpress.com/2009/06/02/pluripotencia-inducida-a-celulas-la-alternativa-a-las-celulas-madre-embrionarias/

Aguilar , J. (2013). Aislamiento y Crecimiento de Células en Cultivo. Slide Share. Obtenido 07, 2018, de https://es.slideshare.net/PauloGranda10/aislamiento-y-crecimiento-de-clulas-en-cultivo

Genética Médica News (2017). La edad del donante influye en la calidad de las células madre pluripotentes inducidas.[Fotografía]. Los Angeles. Recuperada de https://revistageneticamedica.com/2017/01/12/celulas-madre-pluripotentes-inducidas/

(2018, 06). Shinya Yamanaka. wikipedia.org. Obtenido 07, 2018, de https://en.wikipedia.org/wiki/Shinya_Yamanaka

What does ABM mean (Medical category)?. wikipedia.org. Obtenido 07, 2018, de https://www.allacronyms.com/_medical/ABM/2

(2018, 05). Transfección . wikipedia.org. Obtenido 07, 2018, de https://es.wikipedia.org/wiki/Transfecci%C3%B3n

Respuesta Inflamatoria. pinterest.es. Obtenido 07, 2018, de https://www.pinterest.es/pin/314126142732310160/?autologin=true

(2018, 04). Reporter gene. wikipedia.org. Obtenido 07, 2018, de https://en.wikipedia.org/wiki/Reporter_gene

(2018, 06). Isquemia. wikipedia.org. Obtenido 07, 2018, de https://es.wikipedia.org/wiki/Isquemia

(2018, 05). Angiogenesis. wikipedia.org. Obtenido 07, 2018, de https://en.wikipedia.org/wiki/Angiogenesis

(2018, 06). Anastomosis. wikipedia.org. Obtenido 07, 2018, de https://es.wikipedia.org/wiki/Anastomosis


Envejecer

10 mayo 2024

El futuro láser militar avanzado logra el primer lugar en el Reino Unido

FUENTE

Un láser militar que podría impulsar a las Fuerzas Armadas del Reino Unido con mayor precisión y al mismo tiempo reducir la dependencia de municiones de alto costo ha alcanzado su próximo hito.

De:Laboratorio de Ciencia y Tecnología de la Defensa y Ministerio de DefensaPublicado19 de enero de 2024Última actualización21 de marzo de 2024: 

Durante una prueba en el campo de tiro de las Hébridas del Ministerio de Defensa , el sistema de arma de energía dirigida por láser ( LDEW ) DragonFire logró el primer disparo de alta potencia de un arma láser contra objetivos aéreos en el Reino Unido. El alcance de DragonFire está clasificado, pero es un arma de línea de visión y puede atacar a cualquier objetivo visible.

  • Primer disparo de alta potencia de un arma láser contra objetivos aéreos
  • El láser cuenta con una precisión milimétrica y bajos costos a largo plazo
  • La asociación con la industria logra avances positivos para las Fuerzas Armadas del Reino Unido

DragonFire aprovecha la tecnología del Reino Unido para poder ofrecer un láser de alta potencia en largos alcances. La precisión requerida equivale a lanzar una moneda de £1 a un kilómetro de distancia.

Las armas de energía dirigidas por láser pueden atacar objetivos a la velocidad de la luz y utilizar un intenso haz de luz para atravesar el objetivo, lo que provoca fallos estructurales o resultados más impactantes si el objetivo es la ojiva.

Encenderlo durante 10 segundos equivale al coste de utilizar un calentador normal durante sólo una hora. Por lo tanto, tiene el potencial de ser una alternativa de bajo costo a largo plazo para ciertas tareas que realizan actualmente los misiles. El coste de funcionamiento del láser suele ser inferior a 10 libras esterlinas por disparo.

DragonFire está dirigido por el Laboratorio de Ciencia y Tecnología de Defensa ( Dstl ), en nombre del MOD del Reino Unido , en colaboración con sus socios industriales MBDA, Leonardo y QinetiQ.

Este hito demostró la capacidad de atacar objetivos aéreos a distancias relevantes y es un paso importante para poner en servicio esta tecnología. Tanto el Ejército como la Royal Navy están considerando utilizar esta tecnología como parte de sus futuras capacidades de Defensa Aérea.

El Secretario de Defensa, Grant Shapp, dijo:

Este tipo de armamento de vanguardia tiene el potencial de revolucionar el espacio de batalla al reducir la dependencia de municiones costosas y, al mismo tiempo, reducir el riesgo de daños colaterales.

Las inversiones con socios de la industria en tecnologías avanzadas como DragonFire son cruciales en un mundo altamente disputado, ya que nos ayudan a mantener la ventaja para ganar batallas y mantener segura a la nación.

El último hito se basa en una serie de pruebas de gran éxito, incluido el primer disparo láser estático de alta potencia de una capacidad soberana del Reino Unido y la demostración de la capacidad del sistema DragonFire para rastrear objetivos aéreos y marítimos en movimiento con una precisión muy alta a distancia.

Sobre la base de esta investigación, el Ministerio de Defensa anunció recientemente su intención de financiar un programa multimillonario para hacer la transición de la tecnología del entorno de investigación al campo de batalla.

La última prueba fue patrocinada por la organización de Ciencia y Tecnología de Defensa ( DST ) y los Programas Estratégicos del Ministerio de Defensa y fue habilitada por muchas otras agencias de todo el gobierno, garantizando que se cumplieran todos los requisitos reglamentarios y de aprobación de seguridad.

El director ejecutivo de Dstl , el Dr. Paul Hollinshead, dijo:

Estos ensayos nos han visto dar un gran paso adelante para aprovechar las oportunidades potenciales y comprender las amenazas que plantean las armas de energía dirigida.

Con nuestras décadas de conocimiento, habilidades y experiencia operativa, la experiencia de Dstl es fundamental para ayudar a las fuerzas armadas a prepararse para el futuro.

 

El sistema de armas DragonFire es el resultado de una inversión conjunta de £100 millones entre el Ministerio de Defensa y la industria. Juntas, las empresas involucradas están apoyando empleos altamente calificados en el Reino Unido en nuevas tecnologías de vanguardia que están generando un cambio significativo en la capacidad del Reino Unido en sistemas LDEW .

En 2017, el Programa de Investigación del Asesor Científico Jefe del Ministerio de Defensa otorgó un contrato de £30 millones al consorcio DragonFire para demostrar el potencial de los LDEW.

El Dr. Nick Joad, DST dijo:

Se trata de una aplicación realmente innovadora de la ciencia y la ingeniería y es fruto de una inversión y un esfuerzo sostenidos. DragonFire utiliza ciencia y tecnología de vanguardia y ofrece un rendimiento mucho mayor que otros sistemas de clase similar. DragonFire proporciona un cambio radical en nuestra capacidad para hacer frente a amenazas de alto rendimiento y bajo costo.

La defensa del Reino Unido continúa invirtiendo en estas tecnologías innovadoras y está avanzando en los planes que finalmente las pondrán en servicio.

Shimon Fhima, director de programas estratégicos del Ministerio de Defensa , dijo:

Las pruebas de DragonFire en las Hébridas demostraron que nuestra tecnología líder en el mundo puede rastrear y activar efectos de alto nivel a distancia. En un mundo de amenazas en evolución, sabemos que nuestro enfoque debe estar en brindar capacidad al combatiente y buscaremos acelerar esta próxima fase de actividad.

La investigación y la tecnología de LDEW se realizan en asociación y son una forma rentable de satisfacer las necesidades del Ministerio de Defensa manteniendo al mismo tiempo la base tecnológica y de habilidades de la industria del Reino Unido.

La defensa del Reino Unido continúa invirtiendo en estas tecnologías innovadoras y está avanzando en los planes que finalmente las pondrán en servicio.

Obtenga más información sobre la capacidad científica y tecnológica de armas de Dstl y cómo trabajar con nosotros .

27 marzo 2024

La Política de la memoria

FUENTE

En enero de 2020, el gobierno socialista de España, encabezado por Pedro Sánchez, propuso un proyecto de ley de profundo significado cultural y político: una “Ley de Memoria Histórica y Democrática”. Si se aprueba, esta ley completará un esfuerzo de veinte años por parte de la izquierda española para limitar el discurso y remodelar la vida cívica. Establecería un “Consejo de la Memoria” nacional, un órgano del Estado integrado por funcionarios públicos, así como por “expertos” profesionales y representantes de organizaciones no gubernamentales pero políticamente confiables. Elaboraría una política de Estado integral para promover una visión de izquierda de la España de principios y mediados del siglo XX. El proyecto de ley exige la búsqueda de los restos de varios “desaparecidos” del bando republicano en la Guerra Civil española de 1936-1939 y la creación de un “Banco Nacional de ADN” para ayudar a identificarlos. Prescribe la colocación de “placas conmemorativas” en todo el país para identificar sitios y personalidades asociadas con la “memoria democrática”: la memoria de los opositores radicales del régimen de Franco, de los cuales comparativamente pocos estaban a favor de la democracia. La “Ley de Memoria Histórica y Democrática” exige al gobierno español identificar y honrar a las presuntas “víctimas”, sin tener en cuenta el hecho de que muchas probablemente estuvieron involucradas en asesinatos en masa y ejecuciones extrajudiciales.

La ley propuesta es altamente punitiva. Los símbolos, reuniones o declaraciones que se consideran de aprobación del régimen de Franco y de los vencedores de la guerra civil se consideran infracciones a la “memoria histórica y democrática”. Las sanciones propuestas incluyen un elaborado calendario de multas que oscilan entre doscientos y cien mil euros, el cierre por un período de seis meses a dos años de cualquier entidad que infrinja la ley y la confiscación de los medios o bienes involucrados en dichas actividades. Que esta ley restrinja drásticamente la libertad de expresión y viole así la Constitución española es aparentemente irrelevante para el gobierno de Sánchez.

La Ley de Memoria Histórica y Democrática es la propuesta más dramática, arbitraria y punitiva en relación con las discusiones sobre la historia en todo el mundo occidental. Sin embargo, la actitud que refleja es bastante común en la izquierda, que utiliza cada vez más medios gubernamentales o no gubernamentales para restringir y castigar el discurso que defiende puntos de vista, movimientos y figuras de derecha, pasados ??o presentes. Las interpretaciones politizadas de la historia, por supuesto, no son nuevas. Pero la ley propuesta por España es una clara señal de la forma en que la izquierda contemporánea busca utilizar la historia como arma para lograr sus objetivos y silenciar toda disidencia.

El mayor trauma del pasado reciente de España es la Guerra Civil de 1936-1939: la única gran guerra civil revolucionaria moderna que se libró en un país occidental y la lucha europea más importante en los años previos a la Segunda Guerra Mundial. Su violencia más espeluznante no tuvo lugar en el campo de batalla sino en la salvaje represión de ambos bandos contra sus oponentes. Los escuadrones de la muerte republicanos ejecutaron a unos cincuenta y cinco mil adversarios, y los nacionalistas opositores al menos a tantos, si no más, seguidos por quince mil más que fueron condenados por tribunales militares una vez terminadas las luchas. Estas sombrías estadísticas incluyen la masacre de casi siete mil miembros del clero, en el estallido anticlerical más sangriento fuera del mundo comunista. El número de muertos se puede comparar con lo ocurrido en Rusia y Finlandia en 1918-1920, y supera los casos de Letonia y Hungría. Además, a diferencia de las sangrientas secuelas de la Primera Guerra Mundial en Europa del Este, todo esto tuvo lugar en un país de Europa Occidental cubierto extensamente (aunque no siempre con precisión) por la prensa internacional. A la guerra civil le siguió la dictadura de derecha más larga que jamás haya gobernado un gran país de Europa occidental.

El régimen de Franco fue implacable y tenía mucho de qué responder, pero entre 1950 y 1975 presidió la modernización y transformación de España, un logro que había eludido a los líderes del país durante tres siglos. Este proceso podría compararse con el más reciente “modelo chino” de dictadura modernizadora, aunque en el caso de España fue seguido por una rápida transición a la democracia bajo el sucesor de Franco, el rey Juan Carlos.

Durante la convulsa historia moderna de España, la tendencia en la mayoría de los regímenes de transición había sido que los ganadores se vengaran de los perdedores. En España, se refieren al fin del régimen de Franco y a la fundación de la democracia actual como la “Transición Democrática”. En esta transición, los nuevos líderes estaban decididos a no repetir el pasado y reavivar viejos conflictos. Su objetivo era hacer borrón y cuenta nueva histórica, abriendo la transición a la plena participación de todos. El resultado fue la primera constitución democráticamente consensuada de España, ratificada por el electorado en 1978. Durante más de un cuarto de siglo, el sistema de monarquía parlamentaria de la constitución pareció funcionar bien, atrayendo elogios internacionales a pesar de una corrupción cada vez más generalizada.

A la luz del historial negativo de los regímenes de transición anteriores, hubo acuerdo entre todas las fuerzas políticas, desde los conservadores hasta los comunistas, en que los argumentos de la historia no debían utilizarse como armas políticas. En 1977, los partidos de izquierda insistieron unánimemente en una votación de amnistía universal para todos los delitos imputados o motivados políticamente en el pasado, sin excepción. Esperaban que la historia dejara de ser un tema invocado habitualmente en política. A los moderados y a los derechistas no se les debía llamar “franquistas” o “fascistas”, y a los izquierdistas no se les debía llamar “revolucionarios” o “rojos”.

Este consenso se mantuvo en general durante casi dos décadas. En 1993, sin embargo, el partido socialista de Felipe González, que había gobernado ininterrumpidamente durante once años, corría peligro de perder las elecciones. La campaña de González comenzó a insistir en que un voto por el moderado Partido Popular sería un voto a favor del retorno al franquismo. Esta retórica puede haber alentado otra victoria socialista en 1993, pero no sirvió de nada tres años después, cuando los socialistas perdieron, ni tampoco en 2000, cuando el Partido Popular obtuvo una mayoría absoluta en el parlamento. El primer ministro del partido victorioso, José María Aznar, declaró en 2002 que en España por fin se había enterrado el uso de armas del pasado reciente con fines partidistas. Él estaba equivocado.

Los viejos hábitos de denuncia regresaron y la politización de la historia se convirtió en una táctica cada vez más común de la izquierda, así como de los separatistas regionales, que la habían adoptado incluso antes. Los separatistas a menudo se basan en tropos ultranacionalistas que mitizan el pasado de una manera a veces fantástica o fabrican un pasado de la nada. En esto sólo se sienten alentados por las tendencias del progresismo occidental, que durante mucho tiempo ha abusado de la historia para servir a sus fines. En esto, como en muchas otras cosas, España no es “diferente”, como dice el viejo tópico del turismo. Es como en todas partes, sólo que más.

A medida que la política de la memoria se calentaba en los primeros años del siglo XXI, los historiadores se sumaron invocando el estudio del siglo XX de la “memoria histórica” o “memoria colectiva” realizado por académicos franceses como Maurice Halbwachs y Pierre Nora. A menudo no reconocieron que estos académicos habían enfatizado que la “memoria colectiva” refleja o expresa actitudes actuales y no puede revelar la verdad de la historia de ninguna manera confiable. Como observa Wulf Kansteiner, la llamada “memoria colectiva no es historia”; es “tanto el resultado de una manipulación consciente” como de un recuerdo preciso. Enrique Gavilán subraya que “el trabajo de los historiadores no presupone la exactitud de la memoria. Por el contrario, es plenamente consciente de las inevitables deficiencias de la memoria. Los historiadores saben que la memoria no sólo deforma la comprensión de lo ocurrido, sino que de hecho lo hace inevitablemente”.

Varios destacados académicos enfatizaron que la “memoria histórica” tal como la usa la izquierda española es un oxímoron. La memoria humana es individual, subjetiva y frecuentemente falaz. Incluso las personas de buena fe recuerdan a menudo detalles que difieren de lo que realmente sucedió. La historia, tal como la investigan los académicos, por el contrario, no es individual ni subjetiva. Requiere el estudio objetivo y empírico de documentos, otros datos y artefactos. Es un proceso supraindividual emprendido por una comunidad de académicos que debaten y contrastan los resultados y se esfuerzan por ser lo más objetivos posible.

Pero estas advertencias contra el uso político de la “memoria histórica” carecieron de importancia. En el año 2000, la izquierda había perdido temporalmente gran parte de su poder. Con el neoliberalismo en ascenso, los socialistas fracasaron en dos elecciones sucesivas y el Partido Comunista original se desintegró. Las doctrinas socialdemócratas del siglo XX habían perdido parte de su poder de persuasión. Se volvió cada vez más urgente encontrar nuevos términos argumentativos, y la “memoria histórica” jugó un papel importante en el regreso de la izquierda al poder en 2004, después de un importante ataque terrorista en Madrid. Se volvió común argumentar que la democratización se había basado en un supuesto “pacto de silencio”, que se negaba a reconocer los crímenes del franquismo y no honraba a las víctimas históricas.

Pero el “pacto de silencio” es un eslogan propagandístico. Nunca existió tal cosa. Todo lo contrario caracterizó la Transición Democrática de finales de los años 1970, que se había basado en una aguda conciencia de los fracasos y crímenes del pasado y en la determinación de que no se repitieran. Como ha escrito Paloma Aguilar, la principal investigadora sobre el papel de la memoria colectiva en estos años, “Pocos procesos de cambio político se han inspirado tanto en la memoria del pasado, y en las lecciones asociadas a él, como el caso español. » Sería difícil encontrar otro caso en el que la conciencia fuera mayor. Lo que se acordó no fue “silencio”, sino el entendimiento de que los conflictos históricos deberían dejarse en manos de los historiadores y que los políticos no deberían revivir viejos agravios en su lucha por el poder.

Además de “callar”, durante la Transición Democrática historiadores y periodistas actuaron al extremo en todos los medios de comunicación, inundando el país con estudios y relatos de la guerra civil y del franquismo que no disimulaban los aspectos más atroces. A los veteranos del ejército republicano anteriormente derrotados se les concedió pleno reconocimiento y pensiones, con los correspondientes honores. Las ceremonias oficiales de homenaje patrocinadas por el Estado español a los republicanos caídos y a los ex líderes revolucionarios responsables de muchas atrocidades regresaron a España en medio de aplausos públicos. Posteriormente aparecieron estudios académicos detallados y objetivos que, aunque incompletos, por primera vez situaron las explicaciones de las represiones por ambos bandos sobre una base más precisa. Todo esto era lo opuesto al “olvido”, y era mucho más cuidadoso y exacto que la agitación actual sobre la memoria histórica, que es alérgica a los hechos o a la investigación seria.

La ideología de la izquierda española del siglo XXI rechaza casi todos los aspectos del pasado. Es hostil a la mayoría de los valores tradicionales, a diferencia de la socialdemocracia clásica o incluso, en algunos aspectos, del marxismo-leninismo revolucionario. La nueva ideología enfatiza la revolución cultural y sexual. La historia es un juicio político farsa, poco más que un registro de héroes y villanos. Su función principal es desenmascarar a los opresores, separando a las generaciones pasadas en víctimas que deben ser afirmadas y santificadas y victimarios que deben ser silenciados y demonizados. Proyecta culpa sobre los chivos expiatorios del pasado, especialmente si de alguna manera pueden identificarse con sus oponentes políticos en el presente. A los muertos no se les permite descansar en paz, sino que se les alista en la lucha eterna entre el bien y el mal. Francisco Franco, desaparecido durante casi medio siglo, debe ser desenterrado litúrgicamente y vuelto a enterrar. La clasificación de víctimas y victimarios adquiere un significado cultual. Los primeros son honrados y desempeñan papeles salvíficos, de forma muy similar a como lo hacen los héroes en la cultura tradicional. Estos últimos son ritualmente condenados y expulsados. Esta farsa de la “memoria” es un pastiche grotesco y secularizado del cristianismo, elaborado por anticlericales radicales. Es, a su manera, incluso más “religioso” que el culto a la razón en la Revolución Francesa.

Cuando los socialistas españoles intentaron por primera vez imponer restricciones a la memoria histórica a principios de la década de 2000, sus propuestas encontraron duras críticas por parte de varios destacados historiadores profesionales asociados con el propio partido. Pero su propuesta, algo modificada, fue promulgada por el gobierno de José Luis Rodríguez Zapatero en 2007. Esta medida sustituyó el término “memoria histórica” por “memoria democrática”, aunque, en sentido estricto, la memoria democrática sólo puede aplicarse a la reciente Transición misma. . La democracia genuina nunca existió en España antes de 1977, con las excepciones parciales de los últimos años de la anterior monarquía constitucional y los gobiernos de centroderecha de 1933-1935, contra los cuales los socialistas españoles se levantaron en una insurrección revolucionaria.

El esfuerzo de 2007 tuvo dos características especialmente descaradas. El primero fue simplemente la arrogancia de un gobierno que pretendía prescribir qué juicio debía hacerse sobre la historia reciente. El segundo fue la promoción de la “memoria democrática” y un culto al victimismo por parte de los socialistas y los herederos políticos de los ex comunistas, cuando estas eran las mismas fuerzas que habían subvertido el intento de democracia española en la década de 1930 y habían masacrado a sus adversarios. en gran número. Los precursores de la izquierda actual en España desempeñaron papeles destacados en las ejecuciones masivas. Ningún otro partido gobernante en una democracia occidental tiene tal historial de derramamiento de sangre, sin embargo, esta misma organización política, en lugar de emprender una autocrítica histórica y un arrepentimiento, corre un velo sobre su propio pasado mientras acusa a sus enemigos, casi todos ellos de larga data. desde muerto. La hipocresía es moneda común en la política, pero esto establece una especie de récord.

La resurrección de la “memoria histórica” en España plantea una serie de argumentos que no son producto de una investigación desinteresada, sino que se derivan de los principales temas propagandísticos del Frente Popular sobre la propia guerra civil. Ignora deliberadamente el largo historial de violencia izquierdista antes y durante la guerra, junto con la revolución altamente destructiva en la zona del Frente Popular. Quienes proponen poner fin al “pacto de silencio” insisten en que la izquierda luchó sólo por la “democracia” en oposición al “fascismo”, al que a su vez se le considera responsable de toda la violencia política. Como en otros países occidentales, los medios de comunicación y el sistema educativo en España están dominados por la izquierda, que impone lo que los españoles llaman el pensamiento único (pensamiento unipolar o excluyente). Los moderados y conservadores rara vez hablan, por temor a ser tildados de “franquistas” o “fascistas”, y en su timidez ceden la plaza pública. Este tipo de situaciones son comunes en todo Occidente, pero el paralelo más cercano a España puede ser el de Grecia en las últimas décadas. En Italia, por el contrario, ha tendido a haber algo más de tolerancia y apertura.

Los debates antes de su promulgación significaron que la ley de 2007 tuvo que ser modificada para declarar que “no es tarea del legislador implantar una memoria colectiva específica”. Pero la ley contradice esta calificación al ordenar a los futuros gobiernos que implementen “políticas públicas dirigidas a. . . el desarrollo de la memoria democrática”. Durante los cuatro años posteriores a la aprobación de la ley, la financiación pública apoyó una larga serie de proyectos de discusión histórica, agitación política y búsqueda de los restos de las víctimas de la represión de la guerra civil. Esta última era la más cercana a una actividad cívica adecuada, aunque se veía comprometida por su falta de interés por las víctimas de la derecha. Se recuperaron los restos de varios cientos de izquierdistas ejecutados, lejos de los “miles” que se decía que yacían en “fosas comunes”. La financiación llegó a su fin con la caída del gobierno de Zapatero en 2011.

La izquierda aprobó en oposición al gobierno de centroderecha de Mariano Rajoy (2011-2018). Durante este tiempo, su énfasis en la memoria histórica no hizo más que intensificarse. Poco antes de finales de 2017, la minoría socialista presentó una nueva legislación, mucho más ambiciosa que la ley de 2007. Decretó la criminalización al estilo soviético de ciertos tipos de declaraciones y actividades relacionadas con el pasado reciente. Pidió la formación de una Comisión de la Verdad para recomendar el procesamiento de quienes violaran sus normas y prescribir multas e incluso penas de prisión.

En ese momento, la draconiana medida languideció por falta de apoyo. Pero una serie de cuatro elecciones parlamentarias en cuatro años brindó la oportunidad de avanzar en la militarización de la historia después de la formación de un gobierno socialista minoritario bajo Pedro Sánchez en 2018. Incapaz durante dos años de aprobar un presupuesto regular, y con su margen de maniobra en Aunque la mayoría de las cuestiones eran limitadas, la administración socialista decidió seguir adelante con su batalla por el control total de la memoria histórica. En 2019, obtuvo la aprobación parlamentaria para retirar los restos de Franco de su lugar de descanso en el monumento a los muertos de la guerra civil, la gran Basílica Pontificia del Valle de los Caídos, cerca de Madrid, considerada por algunos el mayor monumento construido. en el siglo veinte. El gobierno argumentó que el Valle, el segundo sitio más visitado de España, se había convertido en un monumento al difunto dictador.

Ocho años antes, el gobierno de Zapatero había nombrado una comisión nacional de expertos para abordar la cuestión del lugar de descanso final de Franco. Concluyó que era aconsejable volver a enterrar en otro lugar, pero sólo después de que se hubiera logrado un consenso entre el Estado, las autoridades religiosas y la familia Franco. También recomendó que se concediera a este último autoridad para elegir el nuevo sitio. Estas recomendaciones fueron ignoradas por el gobierno de Sánchez, que alegó “extrema urgencia” (¡después de cuarenta y cuatro años!), mientras que los diputados centristas se abstuvieron, al igual que la mayoría de los diputados conservadores. Se rechazó un recurso ante el Tribunal Supremo de España. La recomendación anterior de la comisión nacional fue ignorada. El tribunal negó el permiso a los nietos de Franco para volver a enterrar los restos en la cripta familiar de la Almudena, la catedral de Madrid. Semejante directiva (que niega el derecho a enterrar a una figura histórica importante en el lugar de enterramiento de su familia) probablemente no tenga precedentes entre los gobiernos constitucionales occidentales.

La Basílica Pontificia está protegida por la ley española y la jurisdicción eclesiástica. Aunque el abad del monasterio encargado de la basílica se opuso enérgicamente a la profanación, al igual que muchos portavoces privados, las autoridades de la Iglesia aceptaron tácitamente la iniciativa. Los restos de Franco fueron rápidamente desenterrados y enterrados nuevamente junto a los de su esposa en un pequeño monumento cerca de su antigua residencia oficial, ahora un sitio histórico nacional.

Insatisfecha con estas medidas, la última propuesta legislativa de 2020 pretende, de manera macabra, desenterrar los restos por segunda vez y reenterrarlos en un sitio diferente, al que se negaría todo acceso público. El Valle de los Caídos, con su notable basílica y su gran cruz en la cima de una colina, sería secularizado y nacionalizado, en términos aún por negociar. Además, cualquier “asociación” o “fundación” que “incite directa o indirectamente al odio o la violencia” hacia los revolucionarios violentos de 1934-1939 o hacia los a veces antidemocráticos oponentes del régimen de Franco sería declarada ilegal. (La definición de “odio” sigue sin estar clara.) Esta última disposición parece ser principalmente una declaración de culpabilidad contra la Fundación Franco, que se dedica a fomentar su propia versión de la historia del difunto dictador. Sus derechos están garantizados por la Constitución española, al igual que la libertad de religión y, en consecuencia, la inviolabilidad de los santuarios. Pero estos aspectos del Estado de derecho no parecen tener importancia para quienes en España se presentan como defensores de la “memoria democrática”.

Todaa la complejidad de las cuestiones involucradas en la Guerra Civil Española de 1936-1939 es reconocida casi universalmente por los académicos profesionales. Reducir la política revolucionaria de la izquierda de 1934 a 1939 a “democracia” y convertir a esas facciones en custodios de la “memoria democrática” es una burla de la historia. Lo mismo se aplica a la supresión deliberada de la más mínima referencia a la violencia masiva y al saqueo y destrucción generalizados provocados por los revolucionarios. La actual democracia española no se basa en modo alguno en su régimen asesino. Se basa en principios constitucionales históricos españoles y en las normas de la Europa democrática contemporánea. Las implicaciones de la ley de la memoria equivalen a afirmar que los seguidores contrarrevolucionarios del general Anton Denikin en la Guerra Civil Rusa de 1917-1921 se oponían de algún modo a la “democracia”, en lugar de combatir a los fundadores del totalitarismo del siglo XX.

Sumándose a esta hipocresía, el gobierno de Sánchez ha ayudado a rehabilitar a los herederos del ala terrorista del nacionalismo vasco, quienes proporcionan los votos parlamentarios cruciales de los que depende para mantenerse en el poder. Los nacionalistas vascos responsables de más de trescientas víctimas del terrorismo nunca han sido procesados. Aquí, al parecer, el gobierno de Sánchez busca borrar la memoria de las víctimas, porque tales recuerdos son políticamente inconvenientes.

En la Europa actual, la mayoría de las controversias históricas se refieren a la Segunda Guerra Mundial. Varios países han legislado para censurar los comentarios históricos considerados injuriosos o escandalosos, como la negación del Holocausto. Algunas censuras van mucho más allá y se extienden incluso a la interpretación de textos controvertidos de la Biblia.

La ley propuesta en España, sin embargo, marca una nueva tendencia a convertir la historia en un arma en nombre de interpretaciones demostrablemente distorsionadas y falsificadas que son políticamente útiles más que intelectualmente creíbles. Esta tendencia no es producto de la ignorancia sino de un intenso partidismo. Refleja una mentalidad milenaria que busca purgar a la sociedad de influencias y actitudes provenientes del pasado para lograr una especie de utopía purificada. Fundamental para esta búsqueda es la búsqueda no reconocida de un sustituto de la fe religiosa. Esta nueva fe política busca construir un mundo de perfecta igualdad y valores armonizados. Imagina que se puede avanzar hacia este mundo inmaculado presentando figuras políticamente correctas como mártires que murieron por la utopía venidera. Esto requiere, a su vez, convertirlos en chivos expiatorios y expulsar a sus supuestos victimarios, quienes supuestamente son los autores de los males que asedian a la sociedad en su estado actual e irredento.

La tendencia a convertir la historia en un arma siempre ha sido fuerte en los movimientos ultranacionalistas y también es prominente entre las fuerzas neotradicionales del mundo no occidental. En el pasado, ha sido empleado por movimientos revolucionarios de diversos tipos. Sólo recientemente ha sido adoptada por sectores importantes de los principales partidos políticos occidentales, una señal de su radicalización y su giro hacia medidas represivas de control social, incluso de control mental.

La pandemia ha paralizado el examen de la “Ley de Memoria Histórica y Democrática”. España ha sufrido proporcionalmente la mayor devastación de cualquier país occidental, debido en parte a la incompetencia e irresponsabilidad de su gobierno. Por el momento, la extrema izquierda parece más obsesionada con deslegitimar la monarquía parlamentaria establecida por la Constitución de 1978, con la esperanza de reemplazarla con una república radical al estilo latinoamericano. No obstante, la propuesta de institucionalizar la “memoria democrática” permanece. Es el proyecto más elaborado del mundo occidental para la militarización sistemática de la historia. Confirma la inclinación de la izquierda española, expresada por primera vez hace dos siglos, por adoptar las versiones más extremas de las ideas de izquierda. Es una señal de hacia dónde se dirigirán los movimientos de izquierda en todo el mundo desarrollado si se les permite avanzar sin oposición. 

Stanley G. Payne es profesor emérito de Historia Jaume Vicens Vives y Hilldale en la Universidad de Wisconsin-Madison.

Foto de Richard Mortel vía Creative Commons

20 febrero 2024

Crean el primer chip que funciona por luz: imposible de hackear y más accesible que los ordenadores cuánticos

Fuente

  • Se trataría de un chip imposible de piratear y que estaría listo para su implementación.
  • Lo que le hace particular, es que usa luz y no electricidad, y eso puede tener multitud de ventajas.

Actualmente estamos viendo muchos avances en lo que respecta a las computadoras cuánticas e igualmente en los súper ordenadores, pero en lo que respecta a la alimentación de estos ordenadores, la tecnología sigue funcionando según los principios de mediados del pasado siglo.

Pero ahora investigadores de la Universidad de Pensilvania han creado un nuevo chip para ordenador que utiliza luz en lugar de electricidad.

Este avance podría mejorar el entrenamiento de los modelos de inteligencia artificial, reducir la cantidad de electricidad consumida, e incluso mejorar la velocidad de transferencia de datos.

Para ello los investigadores han creado un chip fotónico de silicio (SiPh) capaz de realizar cálculos matemáticos utilizando luz. Utiliza la luz porque es el medio más rápido de transferir datos conocido por el ser humano. Por otra parte, el uso de silicio garantiza que la tecnología pueda ampliarse rápidamente debido a su abundancia.

(SAMSUNG NEO QLED 8K QN900A (PROCESADOR NEO QUANTUM 8K)

Prácticamente con este invento, pretendían diseñar un chip que pudiera realizar multiplicaciones de matrices vectoriales, y este sistema se utiliza para el entrenamiento y el desarrollo de las redes neuronales que se suelen utilizar para impulsar los modelos de IA actuales.

Para ello, los investigadores redujeron la altura del chip en regiones específicas para controlar cómo se propaga la luz en su interior.

Y es que, por ejemplo, si es más ancho permite que la luz se disperse a través del chip y al controlar las variaciones de altura se aseguraron que la luz dentro del chip viajara sólo en línea recta.

Se trata de un chip imposible de piratear y listo para su implementación, lo que igualmente es un garante de seguridad.

Comentan que sus chips podrían acabar reemplazando a las unidades de procesamiento de gráficos actuales y que suelen utilizar grandes empresas para entrenar sus modelos de IA.

Recomiendan que la plataforma SiPh puede servir como complemento a la infraestructura existente que utilizan las empresas de inteligencia artificial.

Como este chip puede realizar múltiples cálculos en paralelo no sería necesario almacenar la información en una memoria de trabajo mientras se realizan cada uno de los cálculos: «Nadie puede piratear una memoria inexistente para acceder a su información», añaden.

 

18 octubre 2023

El cambio climático no es producido por el hombre; la NASA admite que el cambio climático se debe a los cambios en la órbita solar de la Tierra, no al ser humano ni a los combustibles fósiles.

Ante los terribles acontecimientos que se suceden en el mundo, sólo me queda desear…


Representación gráfica, aunque no llega a la conclusión correcta

La NASA admite que el cambio climático se debe a los cambios en la órbita solar de la Tierra, no al ser humano ni a los combustibles fósiles.

¿Recuerda cuando la NASA reconoció que el cambio climático se produce debido a cambios en la órbita solar de la Tierra, no a los SUV y los combustibles fósiles?

tierra en llamas

Desde hace más de 60 años, la Administración Nacional de la Aeronáutica y del Espacio (NASA) sabe que los cambios que se producen en los patrones climáticos planetarios son completamente naturales y normales . Pero la agencia espacial, por alguna razón, ha optado por dejar que el engaño del calentamiento global provocado por el hombre persista y se propague, en detrimento de la libertad humana.

Fue en el año 1958, para ser precisos, cuando la NASA observó por primera vez que los cambios en la órbita solar de la Tierra, junto con las alteraciones en la inclinación del eje de la Tierra, son responsables de lo que los científicos del clima hoy han denominado «calentamiento» (o «calentamiento»). enfriamiento», dependiendo de su agenda). En otras palabras, de ninguna manera los humanos están calentando o enfriando el planeta conduciendo vehículos todoterreno o comiendo carne de res.

Pero hasta ahora la NASA no ha logrado dejar las cosas claras y, en cambio, ha optado por sentarse en silencio y observar cómo los liberales enloquecen ante la idea de que el mundo supuestamente terminará en 12 años debido a demasiado ganado o demasiadas pajitas de plástico.

En el año 2000, la NASA publicó información en su sitio web del Observatorio de la Tierra sobre la Teoría del Clima de Milankovitch, revelando que el planeta, de hecho, está cambiando debido a factores extraños que no tienen absolutamente nada que ver con la actividad humana. Pero, una vez más, esta información aún no se ha generalizado, unos 19 años después, razón por la cual izquierdistas trastornados y obsesionados con el clima han comenzado a afirmar que en realidad sólo nos quedan 18 meses antes de que el planeta muera por un exceso de dióxido de carbono ( CO2).

La verdad, sin embargo, está mucho más en la línea de lo que propuso el astrofísico serbio Milutin Milankovitch, que da nombre a la Teoría del Clima de Milankovitch, acerca de cómo las variaciones estacionales y latitudinales de la radiación solar que inciden sobre la Tierra de diferentes maneras y en diferentes momentos , tienen el mayor impacto en los patrones climáticos cambiantes de la Tierra.

Las dos imágenes siguientes (por Robert Simmon, NASA GSFC) ayudan a ilustrar esto: la primera muestra la Tierra en una órbita casi cero y la segunda muestra la Tierra en una órbita de 0,07. Este cambio orbital está representado por la forma ovalada y excéntrica en la segunda imagen, que ha sido exagerada intencionalmente con el propósito de mostrar el cambio masivo en la distancia que ocurre entre la Tierra y el Sol, dependiendo de si está en el perihelio o en el afelio.

variación en la excentricidad orbital
variación en la excentricidad orbital

«Incluso la excentricidad máxima de la órbita de la Tierra (0,07) sería imposible de mostrar con la resolución de una página web», señala el Hal Turner Radio Show . «Aun así, con la excentricidad actual de 0,017, la Tierra está 5 millones de kilómetros más cerca del Sol en el perihelio que en el afelio».

El factor más importante que afecta el clima de la Tierra es el SOL.

En cuanto a la oblicuidad de la Tierra, o su cambio en la inclinación axial, las dos imágenes siguientes (Robert Simmon, NASA GSFC) muestran el grado en que la Tierra puede cambiar tanto en su eje como en su orientación rotacional. En las zonas más altas, las estaciones de la Tierra se vuelven mucho más extremas, mientras que en las zonas más bajas se vuelven mucho más suaves. Existe una situación similar para el eje de rotación de la Tierra, que dependiendo de qué hemisferio apunte al Sol durante el perihelio, puede afectar en gran medida los extremos estacionales entre los dos hemisferios.

variación en la oblicuidad axial
precesión

Basándose en estas diferentes variables, Milankovitch pudo idear un modelo matemático integral que es capaz de calcular las temperaturas de la superficie de la Tierra desde hace mucho tiempo, y la conclusión es simple: el clima de la Tierra siempre ha estado cambiando y está en una constante . estado de cambio debido a causas ajenas a nuestra parte como seres humanos.

Cuando Milankovitch presentó por primera vez su modelo, fue ignorado durante casi medio siglo. Luego, en 1976, un estudio publicado en la revista Science confirmó que la teoría de Milankovitch es, de hecho, precisa y que corresponde a varios períodos de cambio climático que han ocurrido a lo largo de la historia.

En 1982, seis años después de la publicación de este estudio, el Consejo Nacional de Investigación de la Academia Nacional de Ciencias de Estados Unidos adoptó la teoría de Milankovitch como verdad y declaró que:

… las variaciones orbitales siguen siendo el mecanismo de cambio climático más examinado en escalas de tiempo de decenas de miles de años y son, con diferencia, el caso más claro de un efecto directo del cambio de insolación en la atmósfera inferior de la Tierra.

Si tuviéramos que resumir todo en una simple frase, sería esta: el factor más importante que influye en los patrones meteorológicos y climáticos en la Tierra es el sol, punto. Dependiendo de la posición de la Tierra con respecto al Sol en un momento dado, las condiciones climáticas variarán dramáticamente e incluso crearán anormalidades drásticas que desafiarán todo lo que los humanos creían saber sobre cómo funcionaba la Tierra.

Pero en lugar de abrazar esta verdad, los «científicos» climáticos de hoy, junto con políticos de izquierda y los principales medios de comunicación cómplices, insisten en que no usar bolsas reutilizables en el supermercado y no tener un vehículo eléctrico están destruyendo el planeta tan rápidamente que debemos absolutamente implementar los impuestos climáticos globales como la solución.

«El debate sobre el cambio climático no tiene que ver con la ciencia. Es un esfuerzo por imponer controles políticos y económicos a la población por parte de la élite», escribió un comentarista en el programa de radio Hal Turner.

«Y es otra forma de dividir a la población contra sí misma, con algunos que creen en el calentamiento global provocado por el hombre y otros que no, es decir, divide y vencerás».

Puede leer el informe completo del programa de radio de Hal Turner en este enlace .

Comentario: Para ser claros, esto no es una admisión explícita por parte de la NASA de que «el cambio climático es un fenómeno solar». De hecho, hubo un tiempo en el que las instituciones tan cacareadas estaban abiertas a tales ideas, pero ese tiempo ya pasó. Hoy ‘¡todos están a bordo del tren hecho por el hombre!’… aunque, como implica el artículo, los científicos y administradores de la NASA seguramente deben saber, en la intimidad de sus propios pensamientos, que el clima está regulado por fuerzas mucho mayores que la contaminación y pedos de vaca. Por lo tanto, es deseo del autor original que ‘la NASA admita’…Un aspecto que no se menciona en el artículo es el efecto que el entorno cósmico tiene sobre el clima del planeta. Sin embargo, quienes perpetúan la narrativa del «cambio climático provocado por el hombre» nos están vendiendo un montón de hockey sobre caballos.

Ver también:

«Los resultados son claros: los cambios en la concentración de CO? no pueden ser la causa de los cambios de temperatura. Por el contrario, el cambio de temperatura es una causa potencial del cambio de CO? en todas las escalas de tiempo. Como concluimos en el artículo, “Toda la evidencia resultante de los análisis de la serie temporal moderna más larga disponible de concentración atmosférica de [CO?] en Mauna Loa, Hawaii, junto con la de T promediada globalmente, sugiere un vínculo unidireccional y potencialmente  causal con  T como causa y [CO?] como efecto. Esta dirección de causalidad se mantiene durante todo el período cubierto por las observaciones (más de 60 años)”.
Fuente

La Teoría del Clima de Milankovitch se refiere a la idea de que las variaciones en la órbita de la Tierra y su inclinación son responsables de los ciclos climáticos, incluidas las edades de hielo. Esta teoría fue propuesta por Milutin Milankovitch, un científico serbio, en el siglo XX. Según esta teoría, hay tres ciclos principales que afectan el clima de la Tierra:

  1. Ciclo de Eccentricidad: Este ciclo se refiere a los cambios en la forma de la órbita de la Tierra alrededor del Sol, que varía de casi circular a más elíptica. Este ciclo tiene un período aproximado de 100,000 años.
  2. Ciclo de Oblicuidad: Este ciclo se relaciona con cambios en la inclinación del eje de la Tierra. La inclinación varía entre unos 22.1 y 24.5 grados en un período de aproximadamente 41,000 años. Esto afecta la cantidad de radiación solar que reciben los polos de la Tierra.
  3. Ciclo de Precesión: La precesión es el movimiento de bamboleo del eje de la Tierra. Este ciclo, que tiene una duración de unos 26,000 años, afecta la orientación del eje de la Tierra y, por lo tanto, influye en las estaciones y en la distribución de la radiación solar en la Tierra.

Estos ciclos, conocidos colectivamente como ciclos de Milankovitch, tienen una influencia significativa en el clima de la Tierra a lo largo de miles de años, y se cree que han sido un factor importante en la iniciación y finalización de las edades de hielo. Sin embargo, es importante destacar que estos ciclos no son los únicos factores que influyen en el clima; las actividades humanas, como la quema de combustibles fósiles y la deforestación, están jugando un papel cada vez más importante en el cambio climático actual.

25 mayo 2023

Pequeña batería de fusión

El reactor de confinamiento electrostático inercial de Avalanche depende de la recirculación de iones millones de veces por segundo para forzarlos a fusionarse. AVALANCHE

La fusión nuclear práctica es, como se sabe, siempre 10 años en el futuro. Excepto que el Pentágono otorgó recientemente un premio a una pequeña empresa emergente para lanzar un sistema de energía de fusión al espacio en solo cinco.

No faltan organizaciones, desde empresas emergentes respaldadas por capital de riesgo hasta estados nacionales, que intentan hacer realidad el sueño de una energía barata, limpia y confiable a partir de la fusión nuclear. Pero Avalanche Energy Designs, con sede cerca de una instalación de Boeing en Seattle, es aún más ambiciosa. Está trabajando en «paquetes de micro fusión» modulares, lo suficientemente pequeños como para sostenerlos en la mano pero capaces de alimentar todo, desde autos eléctricos hasta naves espaciales.

El mes pasado, la Unidad de Innovación de Defensa (DIU) del Pentágono anunció que había otorgado a Avalanche una suma no especificada para desarrollar su dispositivo de fusión Orbitron para generar calor o electricidad, con el objetivo de impulsar un sistema de propulsión de alta eficiencia a bordo de un satélite prototipo en 2027. El contrato con Avalanche fue uno de los dos otorgados por la DIU; el segundo fue para Ultra Safe Nuclear, con sede en Seattle, para el desarrollo de su batería de radioisótopos.

La ciencia de la fusión es bien entendida. Si puede forzar la unión de núcleos de hidrógeno (o algunos otros elementos ligeros), liberarán grandes cantidades de energía. Sin embargo, la mayoría de los intentos de superar la repulsión electrostática de las partículas en el plasma implican temperaturas extremadamente altas (como en el proyecto internacional Iter de más de 25.000 millones de dólares estadounidenses) o potentes pulsos o proyectiles láser. La validación de tales enfoques requiere hardware grande, complejo y extremadamente costoso.

El Orbitron de Avalanche, por otro lado, teóricamente podría caber sobre una mesa. Se basa en el Ph.D. tesis de Tom McGuire, un estudiante que trabajaba en la fusión por confinamiento electrostático inercial (IEC) en el MIT en 2007. IEC fue imaginado por primera vez por el pionero de la televisión Philo Farnsworth. Un dispositivo IEC confina iones de combustible en campos eléctricos que están soportados por electrodos esféricos. Los iones recirculan dentro del dispositivo IEC, dándoles repetidas oportunidades para fusionarse.

McGuire simuló el comportamiento de dichos iones con diferentes rejillas de cátodos y descubrió que algunas configuraciones conducían a que el plasma se autoorganizara en una colección pulsante sincronizada de «racimos de iones». Estos grupos duraron alrededor de una décima de segundo, miles de veces más que los iones que vuelan solos, y por lo tanto aumentaron enormemente la probabilidad de fusión. McGuire obtuvo su Ph.D. y se unió a la división Skunk Works de Lockheed Martin para desarrollar su propio concepto de fusión compacta. (Su socio de investigación de fusión en el MIT, Carl Dietrich, pasó a explorar otra tecnología «siempre a una década de distancia»: los autos voladores).

Mientras tanto, el trabajo de IEC de McGuire languideció hasta que llamó la atención de dos ingenieros que trabajaban en Blue Origin: Robin Langtry y Brian Riordan. En 2018, formaron Avalanche Energy como una actividad secundaria, y finalmente abandonaron Blue Origin en el verano de 2021. En marzo de este año, Avalanche surgió de la clandestinidad con $ 5 millones en fondos de capital de riesgo y una plantilla de 10, aunque la dirección oficial de Avalanche es sigue siendo una casa unifamiliar en Seattle.

El sitio web de Avalanche proclama con orgullo: «Vemos nuestros paquetes de energía de fusión como la base para crear un mundo con abundante agua limpia, océanos saludables, vastas selvas tropicales e inmensos glaciares en equilibrio saludable».

Una solicitud de patente presentada por Langtry y Riordan contiene algunos detalles de cómo podría funcionar su Orbitron. Describe un sistema de contención orbital del orden de decenas de centímetros de tamaño, donde un haz de iones de combustible interactúa con un campo electrostático para entrar en una órbita elíptica alrededor de un electrodo interno. La aplicación describe un sistema en el que los iones duran un segundo o más, 10 veces más que en las simulaciones de McGuire y lo suficiente para que cada ion complete millones de órbitas en el reactor.

Un artículo en GeekWire publicado cuando Avalanche salió del modo sigiloso incluía una afirmación de que la compañía ya había producido neutrones a través de la fusión. Avalanche contempla pequeños paquetes de fusión con una capacidad de 5 a 15 kilovatios, que funcionan solos o agrupados por cientos para soluciones de energía limpia a escala de megavatios. El Pentágono está interesado en los paquetes para permitir potencialmente que las pequeñas naves espaciales maniobren libremente en el espacio profundo, con cargas útiles de mayor potencia.

El desafío ahora es que Avalanche pase de ser un Ph.D. de 15 años. tesis en simulación a un prototipo de trabajo en el espacio, en sólo 60 meses. Tom McGuire, que todavía está trabajando en la fusión en Lockheed, no hizo comentarios a IEEE Spectrum más allá de señalar que estaba al tanto de Avalanche, no está involucrado en su esfuerzo y les desea suerte. Avalanche en sí no respondió a las solicitudes de entrevista.

Las reacciones de los expertos en fusión fueron mixtas, aunque todos señalaron que se avecinan múltiples desafíos de ingeniería importantes. Uno señaló que “la pieza crítica de la tecnología es la afirmación de confinamiento orbital. Alcanzar densidades lo suficientemente altas sin arruinar el comportamiento inteligente del movimiento orbital es el principal desafío”.

Otro, que pidió no ser identificado, se mostró bastante escéptico.

El problema es que la fusión no es lo único que puede ocurrir cuando dos iones se acercan. La probabilidad de fusión es mucho menor que la probabilidad de otras cosas, como la dispersión. Aumentar la densidad de iones aumenta la probabilidad de fusiones, pero también aumenta la probabilidad de dispersión”, escribió. “VC acaba de invertir 5 millones de dólares en un enfoque que, en mi opinión, es imposible”.

Jason Cassibry, profesor del departamento de ingeniería mecánica y aeroespacial de la Universidad de Alabama, en Huntsville, no está de acuerdo. “Hay una ruta bastante buena para alcanzar el punto de equilibrio”, dijo, refiriéndose al punto en el que un reactor produce más energía de la que consume. “Pero van a tener que trabajar mucho y modelar mucho para descubrir la combinación mágica de cosas para que todo funcione”.

Cassibry también señaló que muchas reacciones de fusión producen neutrones que, en ausencia de protección, podrían resultar dañinos para los materiales, las cargas útiles y los humanos en cualquier futura nave espacial. Si bien esto en última instancia aumentaría la complejidad de la ingeniería, en realidad podría ser una ventaja comercial a corto plazo, dice: «Si no tienen éxito, creo que todavía tienen un dispositivo muy útil como fuente de neutrones de bajo costo». que tiene todo tipo de aplicaciones, como imágenes médicas y aplicaciones de seguridad nacional”.

Cuando se le preguntó si cree que el paquete de fusión de Avalanche realmente volará al espacio en 2027, Cassibry dijo: “Dudo en decir que no se puede hacer, ya que de vez en cuando alguien golpea un grand slam. Pero sería mucho más fácil si escribieran un cheque por mil millones de dólares en lugar de solo unos pocos millones. Es difícil hacer cosas como esta”.

Pequeña batería de fusión

 

13 abril 2023

La democracia como problema. Alexis de Tocqueville | Eduardo Nolla

El video titulado «La democracia como problema. Alexis de Tocqueville | Eduardo Nolla» presenta al autor Alexis de Tocqueville como un personaje complejo y paradójico. Se relata una anécdota en la que aviones americanos intentan destruir la casa de Tocqueville durante la Segunda Guerra Mundial sin saber que estaban destruyendo la casa de un autor clave en el estudio de la democracia en América. Se habla de cómo Tocqueville viajó a América con el objetivo de estudiar el sistema político y social americano y cómo su obra «La democracia en América» es vital para comprender la estabilidad política americana. Se aborda el tema del individualismo y la tiranía de la mayoría y se plantea la necesidad de encontrar soluciones para producir sistemas políticos democráticos que funcionen en Francia y en el resto del mundo.

14 marzo 2023

Motor de plasma chino

Fuente

China muestra el prototipo de motor eléctrico de plasma para aviones comerciales

El prototipo ha sido creado por un equipo de investigadores de la Universidad de Tecnología de Wuhan: un motor eléctrico alimentado por plasma que permitiría descarbonizar la aviación comercial.

La Universidad de Tecnología de Wuhan, en China, ha mostrado un prototipo de un motor eléctrico de plasma que emplea el mismo principio físico que utilizan los satélites para orbitar en el espacio

La Universidad de Tecnología de Wuhan, en China, ha mostrado un prototipo de avión propulsado por un motor eléctrico de plasma que emplea el mismo principio físico que utilizan los satélites para orbitar en el espacio. Implementada en los futuros aviones comerciales, esta tecnología podría ser clave para descarbonizar la aviación comercial ya que permitiría que los aviones funcionen únicamente con electricidad prescindiendo de combustibles contaminantes.

Aunque parece una idea de ciencia ficción, el plasma es una tecnología que ya tiene años de uso y que está presente por ejemplo en algunos tubos fluorescentes, que lo utilizan para producir luz. Considerado el cuarto estado de la materia, el que más abunda en el cosmos, el plasma es por naturaleza un poderoso conductor de electricidad. Los motores basados en él pueden revolucionar el campo dela aviación y adelantar los procesos descarbonización.

China ha desarrollado un motor de plasma dotado de un diseño que podría utilizarse en la atmósfera terrestre. La capacidad de propulsión de este motor alcanza los niveles de empuje de los motores convencionales que queman combustibles fósiles pero a diferencia de ellos no genera emisiones de carbono.

El plasma frío desarrollado por la Universidad de Wuhan combina aire ionizado y electricidad para generar plasma que se encuentra presurizado y prescinde de los habituales ánodos y cátodos para acelerar el viaje de las partículas cargadas. En su lugar utiliza los potenciales eléctricos que se producen de forma interna.

 

Como antecedente, la corporación de ciencia y tecnología aeroespacial del país asiático anunció en enero de 2020 que había desarrollado el primer propulsor de efecto hold, también llamado motor de plasma estacionario. Este dispositivo tenía una potencia de entrada de 20 kW y generaba una fuerza de empuje de 1 Newton. Esta magnitud es una unidad que y mide la cantidad de fuerza aplicada durante un segundo a una masa de un kilogramo para que esta adquiera la velocidad de un metro por segundo.

El motor diseñado por la Universidad de Tecnología de Wuhan logro un empuje de 11 N, que equivale a unos 1.200 kilogramos de fuerza. El director del proyecto Jau Tang indica que el objetivo de este proyecto es producir un motor ecológico para la aviación comercial. Estos motores de plasma podrían contribuir a evitar el calentamiento global.

Para lograr hacer realidad la aviación eléctrica, la industria de la aviación eléctrica ha probado diversos modelos y enfrentado diferentes retos con cada uno. Los aviones propulsados por motores eléctricos tienen su mayor hándicap en el peso de las baterías que los alimentan. Para lograr una autonomía aceptable estas deben tener una gran capacidad, lo que se traduce en que los aviones son más pesados y precisan de motores más potentes que a su vez requieren baterías más grandes. Un círculo vicioso que parece hacer inviable esta tecnología para los vuelos de larga distancia.

El plasma es considerado el cuarto estado de la materia (además de líquido, sólido y gaseoso). Es el más abundante en el universo y siempre se encuentra ionizado es decir cargado eléctricamente. Por eso también se le llama gas ionizado. El plasma es un buen conductor eléctrico y responde de forma rápida a las variaciones electromagnéticas.

El plasma se origina naturalmente cuando se produce una ionización de las moléculas de un material a altas temperaturas, por ejemplo en un rayo. En un laboratorio, el plasma se puede producir creando un arco eléctrico dentro de un envoltorio de microondas y con la ayuda de rayos láser. Tiene aplicaciones en distintas industrias. Por ejemplo, se ha investigado su uso para abastecer de energía a las naves espaciales durante sus vuelos en el espacio. Las dos agencias espaciales más importantes del mundo, la Agencia Espacial Europea y la NASA han desarrollado sistemas de propulsión de plasma.

Diagrama esquemático de un prototipo de propulsor de plasma de aire. Este dispositivo consta de una fuente de alimentación de microondas, un compresor de aire, una guía de ondas de microondas comprimido y un encendedor de llama. Crédito: Jau Tang y Jun Li.

Existen muchos inconvenientes para implementar un motor de plasma en la atmosfera a gran escalla. El principal es la cantidad de energía necesaria para alimentarlos. Además, en un motor de plasma que utiliza xenón, por ejemplo, los iones generados pierden fuerza a medida que entran en contacto con el aire, reduciendo la fuerza de empuje. Por eso los motores de plasma solo son utilizados cuando la aeronave sale de la atmósfera. Su bajo empuje impide romper la barrera atmosférica pero no impide viajar cómodamente en el espacio.

En el caso del plasma frío desarrollado por la Universidad de Wuhan se combina aire ionizado y electricidad para generar plasma de alta temperatura. Este plasma se encuentra presurizado, separado de la presión atmosférica. Prescinde de los habituales ánodos y cátodos para acelerar el viaje de las partículas cargadas. En su lugar utiliza los potenciales eléctricos que se producen de forma interna: cuando los electrodos interactúan se forma un arco eléctrico de alta corriente lo que produce la aceleración de los iones y el aumento de la temperatura. Como se hace un uso intensivo de la corriente sin los separadores de los electrodos se debe usar un voltaje más limitado lo que produce una velocidad de escape un poco más baja que en los motores convencionales.

La primera ventaja es que este prototipo utiliza aire en lugar de gas por lo que tiene una fuente ilimitada para alimentar el motor propulsor. Este motor comprime y luego ioniza el aire que generará el plasma. Utilizando señales de microondas en distintas pruebas se ha demostrado una fuerza de empuje mayor a la de prototipos anteriores.

El motor de reacción de plasma podría sustituir al motor a reacción convencional de combustible fósil.
El plasma se produce a partir de aire ionizado. Este plasma se calienta de forma rápida lo que permite su expansión dentro del motor y sale con potencia por medio de un tubo de cuarzo. De esta manera se genera la electricidad y el empuje. El nuevo motor sigue la misma lógica de otros prototipos como el del avión eléctrico del MIT que utiliza los vientos iónicos para propulsarse sin necesidad de motores.La diferencia es que produce un plasma inicial de baja temperatura cuando se eliminan los electrones de átomos de nitrógeno y oxígeno. El plasma se genera a baja temperatura y baja presión mediante el aire de un ventilador colocado en la entrada del tubo. El plasma se eleva y entra en las emisiones de microondas. Las partículas comienzan a oscilar dentro de este campo y este proceso genera un calentamiento general del sistema. Es como una sopa de átomos iones y electrones que chocan entre sí intensamente. Gracias a las emisiones de microondas esto produce una propagación de la energía de los iones y los electrones hacia los átomos neutros calentando a su vez el plasma. Cuando sale el plasma contenido se forma una llama esta combustión produce la fuerza de empuje y así la aeronave se mueve hacia adelante.

El equipo de Wuhan planea mejorar el sistema para hacerlo más fiable. También debe mejorar su eficiencia ya que todavía requiere mucha energía para impulsar el aire ionizado. Estas necesidades son todavía limitantes para su uso comercial a gran escala. Además, un avión impulsado con chorros de plasma sería mucho más silencioso que los convencionales. El problema es que su escape tendría una llama silenciosa de 1.000 grados que se debe manipular son seguridad.

La innovación tecnológica del dispositivo de Wuhan es prometedora. Aunque todavía tiene problemas que solucionar este nuevo diseño podría mejorar considerablemente la industria de la aviación y contribuir a eliminar el uso de combustibles de origen fósil. Para lograrlo se debe aumentar la potencia de los motores de plasma algo en lo cual ya se trabaja. Si se logra ampliar la fuerza de empuje el sueño de tener aviones sin carbono podría hacerse realidad.