jueves, 29 de diciembre de 2016

¿Por qué existe el arco iris?

La vez pasada recordábamos ese experimento del colegio, donde hacíamos pasar una luz blanca a través de un prisma. La luz se difractaba en siete colores. Pues bien, eso mismo sucede con la luz del sol cuando atraviesa las gotas de lluvia.

Como ya sabemos, cada color tiene un índice de refracción diferente, es decir, sale del prisma o de la gota de agua en un ángulo diferente y eso es lo que nos permite ver los siete colores separados. El rojo se forma hacia el exterior del arco iris, mientras que el violeta hacia el interior. Ya que la gota de agua está funcionando como prisma, cuanto más grande sea la gota, más intensos serán los colores del arco iris.

La forma de arco se debe a que el cono de luz es intersectado con un plano imaginario frente a nosotros, por lo que, cuando miramos un arco iris el sol estará generalmente a nuestras espaldas. He aquí lo curioso, pues ya que la luz llega a nuestros ojos con un determinado ángulo, significa que vemos al arco iris desde nuestro punto de vista y que, si nos movemos, el arco iris no variará, como si se moviera con nosotros. Por tanto, otra persona verá un arco iris llegando a sus ojos, diferente al de otra persona. En ciertas circunstancias, como lugares elevados o posiciones del sol respecto del horizonte, es posible ver toda una circunferencia.

El arco iris ha despertado la imaginación de muchos pueblos desde la antigüedad. En libros religiosos como la Biblia se le menciona. De hecho, el nombre viene de la diosa Iris, mensajera de los dioses; se le representaba con alas doradas y una túnica de colores.

Fuente: Ing. Miguel G. Ruiz Petrozzi

jueves, 3 de noviembre de 2016

La fascinante historia de por qué el norte queda arriba en los mapas

Trata de imaginar la Tierra vista desde el espacio. ¿Dónde quedaría la parte de arriba? Si dices el Polo Norte, lo más probable es que coincidan muchas personas contigo. Sin embargo, pudieras estar equivocado. La incómoda verdad es que a pesar de que todos nos imaginamos el mundo de esa manera, no hay razones para pensar que el techo del mundo es el norte.

La forma como quedó determinado de esa forma es una excitante mezcla de historia, astrofísica y psicología. Y además, nos lleva a una conclusión importante: el concepto utilizado para diseñar los mapas tiene que ver con la manera como nos sentimos al respecto.

Navegación cerebral

Entender dónde estás ubicado en el mundo es una habilidad básica de supervivencia, lo cual explica por qué los humanos, como la mayoría de las especies, tienen áreas especializadas del cerebro con numerosas conexiones para crear un mapa cognoscitivo de lo que nos rodea. Sin embargo, lo que hace únicos a los humanos, con la excepción de las abejas, es que nosotros tratamos de transmitir estos conocimientos del mundo a otros miembros de nuestra especie. Esto es así desde hace mucho tiempo también en lo que se refiere a cartografía. La primera versión de un mapa fue descubierta en la pared de una cueva hace 14.000 años.

Mirando hacia el emperador

Dada esa larga trayectoria, es sorprendente pensar que fue solo hace pocos siglos que el norte comenzó a ser considerado como el tope del planeta. De acuerdo con Jerry Brotton, un historiador de la Universidad Queen Mary en Londres especializado en mapas, "el norte fue rara vez colocado en el tope, por el simple hecho que de ahí es donde viene la oscuridad". "El oeste tampoco fue una elección, porque por ahí desaparecía el sol".

Brotton dice que aun cuando ya tenían brújulas en esa época, no existe una razón sólida para que el norte esté en la parte de arriba de los mapas. Las primeras brújulas hechas en China estaban diseñadas para apuntar hacia el sur, que entonces era considerado más deseable que el oscuro norte. Pero en los mapas chinos el Emperador, quien vivía en el norte del país, siempre fue colocado en el tope de los mapas, con todos los demás súbditos mirando en dirección hacia él.

"En la cultura china el emperador mira hacia el sur, porque de ahí es donde viene el viento, por eso es una buena dirección. El norte no es muy bueno, pero te encuentras en una posición de subordinación hacia el emperador, así que tienes que mirarlo", explica Brotton.

Mapas religiosos

Dado que cada cultura tiene una idea muy clara de hacia dónde y hacia quién se debe mirar, no debería sorprendernos que haya poca consistencia en el diseño de los mapas. Por ejemplo, en el antiguo Egipto el tope era colocado en el este, porque de ahí salía el sol. Y las primeras versiones de los mapas islámicos le daban preponderancia al sur, porque la mayoría de las culturas musulmanas se encontraban al norte de la Meca, por lo que se imaginaban mirando hacia el sur. Los mapas hechos por cristianos en la misma era (llamados mapamundis) situaron el este en el tope, apuntando hacia el Jardín del Edén, con Jerusalén en el centro.

Entonces, ¿cómo todos se pusieron de acuerdo y decidieron poner el norte como techo del mundo?

El norte de los exploradores

La razón por la cual el norte comenzó a ser la referencia tiene que ver con exploradores como Cristóbal Colón y Fernando de Magallanes, quienes navegaban tomando como guía la Estrella del Norte. No obstante, Brotton advierte que estos primeros exploradores no se imaginaban el mundo de esa manera.

"Cuando Colón describe el mundo, tenía como referencia el este en el tope". Hay que recordar que en aquella época "nadie sabía qué estaba haciendo ni hacia dónde iban", insiste.

El mapa del mundo de Gerardus Mercator, de 1569, fue casi seguramente el momento cumbre cuando comenzaron a dibujarse los mapas con el norte arriba. Mercator fue el primero en utilizar la palabra "atlas" y su mapa fue ampliamente reconocido como el primero en tomar en cuenta la curvatura de la Tierra, de manera que los marinos pudieran cruzar largas distancias sin equivocarse al definir el curso. Pero incluso en ese caso el norte no tuvo mucho que ver con esa decisión.

"Mercator proyectó los polos hacia el infinito. Según su descripción, ese detalle no importaba porque en esa época no estaban interesados en navegar hacia ellos. El norte quedó arriba, pero a nadie quería ir hacia allá".

Con todo y eso, pudo haber puesto el sur arriba.

A lo mejor la decisión fue más simple porque los europeos eran quienes estaban haciendo la mayor parte de las exploraciones del mundo. Cualquiera haya sido la razón, la idea de colocar el norte en la parte de arriba tuvo buena acogida.

Una mirada desde el espacio

La tendencia de tener al norte arriba se ha profundizado con el transcurrir del tiempo. Para muestra está la famosa foto tomada por un astronauta de la NASA en 1973, donde se observa la Tierra con el sur arriba, debido a que fue tomada mientras se realiza una vuelta alrededor del planeta. La NASA decidió voltearla para evitar confundir a la gente.

Sin embargo, cuando comienzas a mirar a la Tierra desde el espacio te das cuenta que la idea de colocar un punto específico como tope carece de todo sentido. Es cierto que, tal como aprendimos en la escuela, la Tierra se alinea en el mismo plano con los otros planetas del sistema solar, porque todos conforman la misma nube de polvo que gira al mismo tiempo. También es verdad que esa fotografía ha podido mostrar el Sol arriba o abajo, dependiendo del lugar en el espacio desde el cual se tomó la imagen. Comparado con la Vía Láctea, nuestro sistema solar esta desbalanceado unos 63 grados.

No obstante, mientras los astrónomos han descubierto que las estrellas y los planetas se alinean con sus vecinos de una forma similar a lo largo del espacio, Daniel Mortlock, astrofísico del Colegio Imperial de Londres, señala que esto es verdad en una escala muy pequeña comparada con la vastedad del universo.

"Hasta donde los astrónomos sabemos, realmente no existe un 'arriba' o 'abajo' en el espacio", advierte.

Así que la respuesta a la pregunta sobre cuál es la parte de arriba de la Tierra es muy sencilla: en ningún lado en particular, y solo la superioridad cultural en la historia ha establecido que el norte es el techo del planeta.

En consecuencia, ¿es hora de comenzar a tomar en consideración otros puntos de referencia?

El norte es "bueno"

Para los psicólogos hay evidencia de que la cultura del norte como techo del mundopuede estar contaminando la forma como percibimos qué es valioso en el planeta. Una clara referencia en psicología indica que muchas personas piensan que el norte se asocia con sentirse bien o dinámico, y el sur sugiere sentirse decaído.

Brian Meier, psicólogo del Colegio Gettysberg, en Estados Unidos, descubrió que las personas inconscientemente procesan palabras positivas como si estuviesen más arriba en el espacio que las negativas. De modo que él se preguntó si había una conexión entre el norte=bueno y bueno=arriba, y cómo esas asociaciones afectaban los valores que las personas asignaban a diferentes áreas en una mapa. Para validar esto mostró a unos sujetos un mapa de una hipotética ciudad, y les preguntó dónde les gustaría vivir. Las personas estuvieron claramente inclinadas a elegir la zona norte de la ciudad. Y cuando a otro grupo se le preguntó dónde vivirían personas imaginarias de distintos estratos sociales, los sujetos ubicaron a los más ricos en el norte y a los pobres en el sur.

No es difícil concebir que a las personas les importa menos qué ocurre en los países o regiones que están en una zona más "baja" que ellos en el mapa o el globo.

La buena noticia es que en el experimento de Meier la relación entre el "norte" y el "sur" fue eliminada con un simple cambio: voltear el mapa. Así que quizás el mundo pueda ser un poco más justo si todos comenzamos a poner el mapa al revés de vez en cuando.

Mapas hechos con el sur en el tope se consiguen fácilmente en Internet. Es una tendencia que Mortlock favorece mucho: "como australiano creo que debía hacerse con más frecuencia". En todo caso es una manera de ver el mundo con ojos frescos y hacerlo inexplorado una vez más. Con tan pocos descubrimientos por hacer de zonas en la Tierra, a lo que podemos dedicarnos -parafraseando a Marcel Proust- es a mirar el mundo que tenemos.

Pero esta vez, a través de unos ojos distintos.

Fuente: BBC de Londres. 23 de octubre de 2016. Ver artículo original

miércoles, 19 de octubre de 2016

¿Cómo se refina el petróleo?

En nuestra experiencia cotidiana hemos conocido a la gasolina, al gas de la cocina o al asfalto que colocan en las pistas. Sin embargo, no hemos conocido de cerca el petróleo, aunque a veces lo confundan con el combustible diésel al cual equivocadamente se le llama "petróleo". El petróleo es una mezcla de compuestos orgánicos, tiene un color que varía desde el amarillento hasta el negro. Es muy viscoso y aceitoso, su densidad va desde 0,66 a 0,98 g/ml, y como la densidad del agua es 1,00 g/ml, el petróleo flotaría en el agua sin mezclarse.

La mayoría de especialistas cree que el petróleo se originó cuando, en épocas muy antiguas como el jurásico, el cretácico o carbonífero, en las cuales hubo abundante vida orgánica la cual, cuando se extinguió, fue cubierta por los sedimentos de épocas más recientes. La presión de las capas superiores aumentó la temperatura de modo que los restos orgánicos sufrieron procesos químicos y físicos que los transformaron en una mezcla que llamamos petróleo. Hay otros especialistas que argumentan un origen no biológico del petróleo, como resultado de reacciones de sustancias que existen naturalmente en el suelo.

Debido a su menor densidad, el petróleo asciende hacia la superficie en afloramientos naturales conocidos desde la antigüedad, como en el actual Irak, citados por el historiador Herodoto. Sabemos que los pueblos antiguos usaban la brea para calafatear los botes entre otros usos.

Sin embargo, hay veces que el petróleo encuentra obstáculos en su ascenso, tales como rocas impermeables. Entonces, es necesario perforar. Es muy complejo el proceso de exploración y de extracción. Al petróleo extraído del suelo terrestre o del lecho marino se le llama "crudo".

El crudo no es una sustancia igual en todas partes. Como vimos, en diferentes lugares tiene colores y densidades diferentes, por eso se le clasifica por su densidad como extrapesado, pesado, medio y ligero. También por su contenido de azufre, se le llama crudo dulce si tiene muy poco azufre. Esto es importante porque los crudos con alto contenido de azufre son más difíciles de refinar ya que hay que extraer más azufre, que es un contaminante.
Para separar todas las sustancias que tiene el petróleo se le somete a un proceso que se llama refinación. Se le introduce en el fondo de un enorme tanque vertical llamado torre de destilación. En su interior hay diferentes bandejas a ciertas alturas. Se calienta la torre por la parte inferior y las sustancias comienzan a evaporarse y ascender según su densidad. Las sustancias más ligeras llegan hasta la parte superior de la torre y son recogidas por unas tuberías en esa altura. Estamos hablando de las sustancias que tienen de 1 a 4 átomos de carbono en su composición, es decir, gases como metano (CH4), etano (C2H6), propano (C3H8) y butano (C4H10).

La siguiente bandeja inferior recoge las sustancias un poco más densas que las de los gases. Tenemos, entonces, a las sustancias con 5 a 7 átomos de carbono en su composición, que son las gasolinas ligeras. Bajando a las bandejas con más temperatura y sustancias más densas tenemos a las gasolinas pesadas con 7 a 11 átomos de carbono; luego el kerosene y diésel, y más abajo, los aceites lubricantes. Es la temperatura la que separa las sustancias que forman el petróleo.
Finalmente, en el fondo de la torre quedan las sustancias más pesadas que no pudieron evaporarse, formando una sustancia negra altamente viscosa llamada asfalto o betún. No confundir con el alquitrán que viene del carbón o de la madera, aunque también puede venir del petróleo. Por su parte, la llamada brea puede venir de la destilación del alquitrán o del residuo del petróleo.

El propano se somete a una gran presión y baja temperatura para licuarlo, es decir, convertirlo en líquido y embotellarlo en balones metálicos. Estos balones terminan en las cocinas domésticas.

Por: Ing. Miguel Ruiz Petrozzi. 16/10/16.

El huevo fue primero que la gallina y la ciencia lo explica

No hay más vueltas que darle, el huevo fue primero que la gallina. Así lo afirma el profesor Neil de Grasse Tyson a la revista "Time". Una explicación sencilla de su tesis elaborada por la página Pictoline se hizo viral en Facebook.

Neil de Grasse Tyson explica que su afirmación tiene base en la evolución. "Hace miles de años, una protogallina puso un huevo diferente al resto: una mutación genética", reseña Pictoline en Facebook.

Aquella puesta le dio una ventaja genética a la 'protogallina mutante'. Su mutación permitió una mejor competitiva para adaptarse mejor a su medio ambiente y a través de su genética transmitirla a su descendencia.

El profesor deGrasse Tyson explicó a "Time" que una proteína específica que se requiere para la formación de la cáscara del huevo está presente solo en los ovarios del pollo. Esto hizo pensar que la gallina fue primero. Aunque absurda y divertida, esto hizo que naciera la pregunta ¿qué fue primero, el huevo o la gallina?

Filósofos de diferentes épocas intentaron responder la cuestión. Desde Aristóteles pasando por Plutarco, Santo Tomás de Aquino hasta Denis Diderot y Charles Darwin.

Pero como resume Pictoline, el proceso de la puesta de huevo con una mutación genética se repitió una y otra vez "hasta que un día salió una mutación que sería el primer huevo del que nacería la primera gallina".

Fuente: Diario El Comercio. 30 de septiembre de 2016.

Leer noticia original

martes, 20 de septiembre de 2016

7 predicciones tecnológicas que vaticinó "Star Trek" hace 50 años y que ya son una realidad

Este jueves [8 de septiembre] se cumplen 50 años del primer embarque televisivo de la tripulación de "Star Trek" ("Viaje a las Estrellas", en español) en la nave estelar USS Entreprise, en busca de vida extraterrestre.
El universo de ficción creado por Gene Roddenberry en 1966 se convirtió en todo un fenómeno de culto que imaginó cómo serían y cómo vivirían los humanos del futuro, siempre en busca de nuevos mundos (y tecnologías) por explorar. Medio siglo después de la emisión del primer episodio, podemos decir que muchas de las profecías tecnológicas que anticipó se hicieron realidad.
Y es que algunas de las tecnologías que el capitán Kirk (William Shatner) y el señor Spock (Leonard Nimoy) nos mostraban capítulo a capítulo, tremendamente innovadoras para la época, ya forman parte de nuestro día a día.
Otras, como la teletransportación, siguen siendo cosa de ciencia ficción.

1. El teléfono móvil
El teléfono móvil es probablemente el invento más famoso que "Star Trek" adelantó a su tiempo. De hecho, su inventor, Martin Cooper, reconoció abiertamente que tuvo la idea luego de ver uno de los capítulos de la serie futurista. El capitán Kirk se comunicaba con el resto de la tripulación a través de un intercomunicador: un aparato que se abría y que le permitía hablar con su interlocutor con tan sólo nombrarlo. En aquellos años ese "comunicador", que hoy llamamos celular, no era más que ciencia ficción. En 1973, cuatro años después de la cancelación de las emisiones de "Star Trek", se realizó la primera llamada a través de un teléfono móvil. Y, ahora, ese aparato tecnológico se ha convertido en una herramienta indispensable en nuestras vidas.

2. La computadora personal
Cuando "Star Trek" se estrenó, las computadoras eran enormes y tenían precios desorbitados. La idea de poder tener una computadora personal que pudiéramos usar cada día era completamente descabellada. Pero Roddenberry creó un mundo en el que las computadoras eran fundamentales para muchas actividades de la vida cotidiana y se encontraban en salas de reuniones y en donde uno las necesitara. Eran las PC de escritorio y de uso personal, aunque mucho más grandes de como las conocemos hoy día. Todo un anticipo de un futuro no tan lejano para la época, pero que entonces costaba imaginar. Poco después de que Star Trek dejara de emitirse se hizo realidad con la creación de la primera computadora personal de la historia. Y evolucionó con el tiempo hasta desprenderse de los cables, algo que también vaticinó "Star Trek".

3. La tableta
Cuando el capitán Kirk firmaba asuntos importantes, utilizaba un aparato muy similar a lo que hoy conocemos como tableta. En 1989 aparecería la primera tableta comercial, que no tuvo mucho éxito de mercado, pero que dos décadas más tarde se convirtió en la popular iPad de Apple. Kirk utilizaba un lápiz de plástico que hoy sería el puntero de la tableta. Y, por supuesto, la pantalla era táctil. Otro gran adelanto.

4. El escáner médico
Gracias a un pequeño dispositivo, el doctor McCoy era capaz de realizar un diagnóstico sin necesidad de abrir el cuerpo de una persona. Era una especie de resonador portátil, premonitorio de la Tomografía Axial Computarizada (TAC) -el escáner médico- y también de la resonancia magnética o de otro tipo de aparatos de diagnósticos por imágenes a través de radiación X. Al doctor McCoy este instrumento le cabía en la palma de la mano; hoy la tecnología existe en máquinas de gran tamaño. Pero el funcionamiento es prácticamente idéntico. McCoy también utilizaba un "tricorder", un sofisticado dispositivo portátil para escanear y analizar datos médicos, haciendo diagnósticos completos en tan sólo segundos. Ese dispositivo como tal todavía no existe, pero varios investigadores llevan años trabajando en ello. Tiempo al tiempo.

5. El GPS
Viajar en "Star Trek" era posible a través de un transportador. Y, aunque hoy no somos capaces de desmaterializarnos y teletransportarnos, sí utilizamos una tecnología similar a la que utilizaba el transportador para llegar a determinados planetas (aunque nuestros viajes no son interplanetarios). Nuestro GPS utiliza sistemas de localización bien similares a los de la futurista máquina que ideó Roddenberry en la década de 1960. Nos permite saber nuestra ubicación exacta y nos da coordenadas para llegar a los lugares que queremos. Nada que envidiar al teletransportador... tan solo la idea de poder teletransportarnos. ¿Será posible algún día?

6. Las memorias USB
Lograr acumular datos en un dispositivo diminuto no podía ser algo más abstracto en los 60. En la nave de "Star Trek" utilizaban pequeños discos cuadrados y planos de 7 centímetros que se insertaban en la computadora central. Y eso es precisamente para lo que servía el disquete. Hoy, utilizamos memorias USB que nos permiten guardar gigas de información. Y que conectamos a nuestros PC a través de una clavija, de la misma manera que lo hacía el señor Spock.

7. Las pantallas de plasma gigantes
Los monitores de la nave USS Enterprise eran pantallas planas de gran tamaño. Ese concepto fue revolucionario en una época en la que las pantallas de las televisiones de las casas tenían un tamaño muy reducido (y no eran planas). Ahora los televisores de plasma son cada vez más grandes. De nuevo, la realidad superó la ficción.

Fuente: BBC de Londres, 8 de septiembre de 2016.Ver artículo original

miércoles, 10 de agosto de 2016

Cómo serán los submarinos que la NASA quiere enviar al espacio para explorar los océanos helados de las lunas

Uno de los avances más emocionantes de las últimas dos décadas en la ciencia planetaria es el descubrimiento de lagos y de océanos en las lunas de Saturno y Júpiter. Y lo que más puede estremecer es que algunas de esas "aguas" podrían albergar vida. Desafortunadamente, no es mucho más lo que sabemos sobre lo que puede haber allí. Así que, ¿cómo podemos explorar estos océanos? Una idea que se está explorando es el desarrollo de submarinos espaciales. La NASA destinó medio millón de dólares para explorar la posibilidad de enviar submarinos a Titán, la luna de Saturno. Y no es la única, existen otras iniciativas para explorar las subsuperficies de Encélado y la luna de Júpiter, Europa.
¿Tenemos la tecnología para asumir estas misiones?

Los retos de un submarino para Titán

Con un área de 400.000 kilómetros cuadrados, se estima que Kraken Mare es el océano más grande de Titán. Pero no está lleno de agua: tenemos suficiente evidencia para decir que se trata de un lago de metano, etano y nitrógeno. El diseño de un submarino para este océano, más grande que el Mar Caspio de la Tierra, sería muy parecido a lo que utilizamos en nuestro planeta, que minimiza el arrastre y puede caber en un vehículo de lanzamiento. El problema está en su funcionamiento una vez que esté en Titán. La mayoría de las misiones operan de forma autónoma y un submarino no sería distinto. Sin embargo, debido a que las señales microondas y de radio son absorbidas con facilidad por los océanos, tendría que salir a la superficie varias veces para enviar señales de vuelta a la Tierra. Otro tema a resolver es la fuente de energía, pues no servirían los paneles solares que actualmente se utilizan en las sondas.

Las opciones

Algunas de las partes menos profundas de Kraken Mare tienen unos 30 a 40 metros de profundidad, pero se cree que otras alcanzan los 150 metros. En un estudio reciente, ingenieros investigaron la posibilidad de utilizar reactores nucleares compactos y células de combustible, pero concluyeron que eran demasiado pesados. En su lugar, propusieron que la electricidad podía generarse a partir de la desintegración radiactiva de plutonio, una técnica similar a que se utilizó con la sonda espacial Cassini. Al contrario que nuestros océanos, el metano líquido de Titán tiene la mitad de densidad del agua y la gravedad de esa luna es siete veces más débil que la Tierra, parecida a la de nuestro satélite. Así que los submarinos que se sumerjan a 150 metros en los océanos de Titán no necesitarán someterse a la misma presión de la Tierra. Quizás lo más difícil será controlar la temperatura dentro del submarino. Incluso cuando en un mar a -180ºC, la desintegración radiactiva de plutonio produce mucho calor, que necesita ser disipado.

El gran reto de las otras lunas

Si el objetivo es Europa -de Júpiter- la dificultad aumenta. El océano de agua salada se encuentra bajo una costra de hielo de varias decenas de kilómetros. Pero la dificultad de sumergirse allí no lo hace menos apetecible, pues en la medida que el agua sea un un prerrequisito para que haya vida, esta luna representa una idea emocionante sobre la posibilidad de que satélites como Europa sean habitables -es posible que en otras lunas de Júpiter, Saturno y posiblemente Urano y Neptuno haya subsuperficies de océanos de agua líquida. Sin embargo, lograr que un submarino atraviese al menos 5 kilómetros de hielo hace que una misión a Titán sea muy difícil. Para sumergir un submarino en los océanos de Europa se requeriría de cryobots, piezas robóticas capaces de penetrar hielo derritiéndolo y permitiendo que la gravedad empuje hacia adentro al robot. Con una fuente normal de energía, esta tarea se podría hacer en unos cinco minutos. Pero enviar una fuente típica al espacio no es una tarea fácil. Así que con la cantidad de energía disponible en la mayoría de las naves espaciales, le llevaría ocho años a un cryobot atravesar la costra de hielo de Europa. Una opción es utilizar un reactor de fusión nuclear, que haría el trabajo en unas seis semanas. Pero este tipo de reactores no cabe en un cryobot; un problema que se resuelve, y otro que se crea.

La alternativa

Así que la opción que ahora manejan los expertos es dejar el reactor en la superficie y enviar el cryobot con una fuente de energía en forma de luz, a través de un cable de fibra óptica. Una vez que el cryobot llegue al océano, desplegaría el submarino. La forma de comunicarse con el cryobot sería a través de ondas de sonido (algo similar a como lo hacen las ballenas). Estos mensajes se enviarían de vuelta al vehículo de la superficie, que a su vez lo transmitiría a la Tierra. Increíblemente, estas ideas ya se han puesto a prueba en la Antártica. Uno de los retos es qué hacer con los sedimentos que se acumulan en la parte delantera de la sonda a medida que se derrite el hielo. Otro es la esterilización a la que habría que someter estos aparatos para evitar cualquier contaminación a un ambiente que pueda albergar vida. Así que hay grandes obstáculos por delante, pero la NASA parece estar comprometida para superarlos. En teoría, es posible que la misión se ejecute a mediados del 2040.

*El autor de este artículo, Chris Arridge, es consejero del Science Technology Facilities Council ( STFC ) del Reino Unido y de la Agencia Espacial del Reino Unido para la exploración del sistema solar. También es columnista del The Conversation.

Fuente: BBC de Londres, 10 de agosto de 2016.

lunes, 8 de agosto de 2016

"La gente tiene esta idea loca de que envejecer es natural e inevitable, y me toca estar explicando que no lo es"

Aubrey David Nicholas Jasper de Grey es un visionario... o un loco, o ambas cosas a la vez.
Ha llegado a decir que la persona que vivirá hasta los 1.000 años ya nació.
Eso es muy difícil de imaginar. 150, quizás; hay quienes llegan a más de 100 y sorpresivamente varios de ellos en muy buen estado.

¿Pero un milenio? ¡Absurdo!
No obstante, digamos que estamos de acuerdo en qué suena a demasiado mientras le damos la oportunidad de defender sus opiniones.

¿Por qué?
Porque el gerontólogo biomédico Aubrey de Grey es el director científico de la Fundación para la Investigación de la Senescencia Negligible Ingenierizada (SENS, por sus siglas en inglés).
Se trata de un método de intervención capaz no sólo de frenar el deterioro de los tejidos del cuerpo humano sino también de eliminar el daño ya acumulado, lo que daría una esperanza de vida indefinida.
Con donantes como Google y PayPal, la organización benéfica ha recaudado millones de dólares para continuar su investigación, a pesar de que ha sido y sigue siendo objeto de críticas por parte de científicos que cuestionan su ética y viabilidad.
No obstante, al desafiar una de las suposiciones más básicas de la condición humana -que el envejecimiento es ineludible- de Grey dejó a la comunidad científica sin saber qué hacer.

¿Indigno de debate?
En 2005, la revista del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) retó a los científicos a refutar los argumentos de Grey.
El biólogo molecular que pudiera demostrar que "SENS es errada e indigna de debate por mentes cultivadas" recibiría un premio de US$20.000... premio que aún no ha sido otorgado.
"La SENS existe en ese punto medio de las ideas que aún deben que ser probadas, que algunos consideran intrigantes pero otros son libres de cuestionar", escribieron los jueces delMIT.
Ideas -añadieron- que, aunque no cuentan con el asentimiento de muchos científicos, tampoco son demostrablemente erradas.

Volvamos entonces a la idea
Para de Grey, envejecer es una enfermedad que puede ser curada si se aborda como un "problema de ingeniería".
En ese sentido, su plan es identificar todos los componentes que hacen que el tejido humano envejezca y diseñar remedios para cada uno de ellos, previniendo la enfermedad y, finalmente, retrasando la muerte. "Yo realmente no concibo nada como inevitable. Soy tecnólogo y humanitario, y eso significa que estoy interesado en desarrollar nuevas tecnologías para resolver cualquier problema que la raza humana tenga que enfrentar", le dijo a la BBC el controvertido científico.
De Grey escribió lo que llama "un mapa de ruta biológico" para derrotar a las enfermedades asociadas con la vejez, y por lo tanto a la vejez misma.

Rejuvenecimiento
Entre las áreas que explora el mapa está la de terapia celular, que moviliza esas células madre que tenemos y que, por su naturaleza, llevan a cabo una guerra sin fin contra lo inevitable.
"La terapia celular toma células que han sido programadas en la fase indicada y las inyecta en el cuerpo para que se dividan y se diferencien, de manera que reemplacen a las células que el cuerpo no está reemplazando por sí mismo", señala de Grey. El progreso que se ha logrado con esta terapia, subraya, no lentifica el envejecimiento; "en otras palabras, no está cambiando el ritmo del proceso con el que el cuerpo se hace daño a sí mismo".
"Lo que se ha logrado más bien es reparar ese daño después de que el cuerpo se lo ha hecho y eso constituye rejuvenecimiento fidedigno".

Vivir indefinidamente
De Grey no habla de inmortalidad; la expectativa de vida no protege contra accidentes, guerras, etc.
Pero con sólo recorrer el primer tramo de su mapa de ruta ya rebasaríamos con creces esas siete o, con suerte, ocho décadas que hemos aceptado como el tiempo que nos corresponde estar vivos.
"Estas terapias no ofrecerán longevidad indefinida, pues no serán perfectas en ese punto del mapa de ruta, pero nos darán al menos 30 años de vida adicional sana, lo que significaría que la persona promedio vivirá hasta los 110 años, y el récord de longevidad se situaríaen 150".
Ese no es el final de la historia. "Continuaremos refinando y mejorando la eficacia y exhaustividad de esas terapias y es altamente posible -en mi opinión- que la gente que pueda beneficiarse de tratamientos mejorados exitosamente sucesivamente podrá vivir indefinidamente".

No aceptar el mundo como es
En términos de lógica, tiene sentido: piensa en un auto clásico al que vas reparando periódicamente.
Así lo conciben Grey, quienes trabajan con él y quienes lo apoyan, pero ¿qué le dice a los que insisten en que envejecer es inevitable y que sencillamente debemos aceptarlo?
"Yo creo que todo el progreso tecnológico que hemos logrado a lo largo de la historia de la civilización ha dependido de gente que no tenía tiempo para contemplar ideas derrotistas y fatalistas o para aceptar el mundo como es", empieza diciendo el biogerontólogo. "No tendríamos fuego, no tendríamos la rueda, no tendríamos antibióticos si no fuera por personas que se dijeron a sí mismos 'no, no debemos aceptar que el mundo sea así'", declara.
Quizás muchos concuerden con este último punto pero no sorprende que su teoría provoque fuertes reacciones, que también suenan lógicas, como la de Tilo Kunath, del Centro para la Medicina Regenerativa de la Universidad de Edinburgo, en Escocia, quien declaró que de Grey está 100% equivocado.
"Debería poder hacer lo que dice al menos con un animal, pero no lo ha logrado ni con un ratón".
Según Kunath, es imposible que vivamos por más de unos 120 años ahora y en el futuro cercano.
Por supuesto, no es el único en dudar. Es uno en una multitud. Nacer, crecer, reproducirse, envejecer y morir es -o parece ser- una ley natural inviolable.
Como en muchos casos, el tiempo dirá y, en este caso, la ventaja es que si Aubrey de Grey está en lo cierto, quizás él mismo vivirá para verse reivindicado.

Fuente: BBC de Londres, 7 de agosto de 2016.
Ver artículo original

martes, 12 de julio de 2016

¿Cómo es un átomo?

Para entender mejor los fenómenos físicos hablaremos de algunas cosas elementales. Comenzaremos, en esta ocasión, con el átomo.
Los pueblos antiguos estudiaban dónde comenzaba la materia, de qué estaba hecha. Los filósofos griegos Demócrito, Epicuro y Leucipo, postularon que la materia debía tener un límite de división, y a esa unidad le llamaron "átomo", que significa en griego "indivisible". Sin embargo, una cosa es filosofar y otra demostrar un modelo que explique los fenómenos químicos y físicos. Diverso modelos fueron propuestos por científicos como John Dalton, Amedeo Avogadro, Dimitri Mendeleyev, Rutherford, Sommerfeld, Dirac, Niels Bohr. Este último propuso que el átomo se parecía a un sistema solar en miniatura. Los protones (cargas positivas) estaba aglutinados formando el núcleo, y a su alrededor giraban los electrones (cargas negativas) como si fueran planetas. Fue un sistema muy intuitivo, fácil de comprender y que explicaba casi todos los fenómenos atómicos. Así lo aprendimos en la escuela, hasta estas últimas décadas en que un nuevo modelo explica mejor los fenómenos. Ahora se habla de un modelo cuántico.
Actualmente se postula que el núcleo está formado por los protones (carga positiva) y neutrones (carga neutra), y todos ellos están unidos por una fuerza muy intensa llamada fuerza nuclear. Alrededor giran los electrones (carga negativa) en órbitas, no necesariamente en un plano, por lo que a esa región espacial se le llama "nube de electrones". A diferencia del sistema solar en que en cada órbita sólo hay un planeta, en el átomo cada órbita puede tener más de un electrón. La naturaleza ha determinado que, en la primera órbita sólo puede haber un máximo de dos electrones; y que en la segunda órbita sólo puede haber un máximo de ocho electrones, siempre que la primera órbita se haya llenado. Así sucesivamente, el máximo en las siguiente órbitas o capas es: la tercera (18), la cuarta (32), la quinta (50), la sexta (72) y la séptima (98). Cada órbita comienza a llenarse sólo cuando la anterior ya está llena.
En un átomo siempre hay una cantidad igual de protones y electrones, lo que equilibra las cargas y hace que el átomo sea eléctricamente neutro.
No necesariamente nos imaginamos a los electrones como bolitas girando en el espacio. Las partículas subatómicas se comportan como ondas estacionarias alrededor del núcleo, y en ciertas circunstancias se comportan como partículas puntuales. Esta dualidad es una característica de la física cuántica.
Sin adentrarnos más en la estructura del átomo ni es las demás partículas que tiene, lo que hemos detallado hasta aquí nos sirve para hablar de los elementos. ¿Qué tan diferente es un átomo de plomo de uno de oro?
Un átomo manifiesta ciertas propiedades químicas y físicas según la cantidad de electrones que tenga. Por ejemplo, si el átomo tiene sólo un electrón, se comporta como un gas, y tiene cierto punto de fusión y de ebullición. Estamos hablando del hidrógeno. Si el átomo tiene 12 electrones, es el carbono. No es que el átomo de hidrógeno sea diferente del de carbono en cuanto a su materia, sólo se diferencia en la cantidad de electrones.
Ahora bien, para finalizar este artículo y dejar un punto de inicio para la siguiente parte. Si tomamos un átomo de mercurio, que tiene 80 electrones, y le quitamos un electrón (y un protón del núcleo para equilibrar la carga), se convertirá ¡en un átomo de oro! (que tiene 79 electrones).
Por: Ing. Miguel Ruiz Petrozzi.

martes, 5 de julio de 2016

¿Por qué el cielo es azul

Previamente necesitamos aprender un concepto. Cuando vemos las olas del mar llegar hasta la playa, vamos a llamar "longitud de onda" a la distancia que hay entre cresta y cresta, que en este caso puede ser de algunos metros. Las ondas de luz son energía que se propagan en forma de ondas, pero con longitudes de onda muy pequeñas, del orden de nanómetros. Un nanómetro resulta de dividir un metro entre mil millones.

Ahora bien, la luz del sol es un conjunto de colores que, cuando atraviesa nuestra atmósfera (que es una mezcla de gases) los colores se separan, dispersándose (recuerda ese experimento en el cual una luz blanca atraviesa un prisma, dividiéndose en siete colores). Las moléculas de oxígeno y nitrógeno (que son los principales componentes de nuestra atmósfera) no dispersan los colores de la misma manera; dispersan más los colores que tienen longitud de onda más pequeña, como el violeta y el azul. Si puedes imaginarlo, la luz violeta tiene una longitud de onda alrededor de 400 nanómetros. En cambio, se dispersan muy poco los colores con longitud de onda larga, como el rojo (aprox. 700 nanómetros) y el amarillo (aprox. 600 nanómetros).

Así, deberíamos ver la atmósfera de un color resultado de la mezcla de violeta y azul, pero debido a la sensibilidad del ojo, sólo captamos el azul.

Como consecuencia, los colores del sol que llegan a nuestro ojo sin mucha dispersión, es decir, la luz blanca menos la azul, resulta en amarillo, y por eso vemos al sol de ese color, pero en realidad, el Sol es de luz blanca.

Cuando el Sol está cerca del horizonte, en el amanecer y en el crepúsculo, está suficientemente inclinado como para que disminuya la dispersión, lo que permite que pueda verse algo del rojo o anaranjado. Otros colores del cielo pueden deberse a la presencia de polvo en el aire o a otros elementos.

Por cierto, en la Luna, debido a que no hay atmósfera, el cielo se ve oscuro, y el sol se ve directamente de luz blanca.

Por: Ing. Miguel Ruiz Petrozzi.

martes, 28 de junio de 2016

¿Cuál polo es positivo en el tomacorriente de tu casa?

Puede que te parezca extraño, pero la respuesta sería "los dos y ninguno". En los tomacorrientes de casa vemos dos agujeros y, a veces, nos hemos preguntado cuál de los dos es el polo positivo, pues no hay ninguna marca "+" ni "-" como sí las hay en las pilas casera y baterías de automóvil.

La corriente que llega a nuestras casas es muy extraña. Las plantas de energía producen una corriente que cambia de polaridad. En un determinado instante, uno de los agujeros es el polo positivo y el otro es negativo, pero en el siguiente instante es al revés, y así sucesivamente, la polaridad cambia ¡60 veces en un segundo! A este tipo de corriente se le llama "Corriente alterna" y fue concebida por el ingeniero Nikola Tesla (1856-1943) que además era físico y matemático.

Su idea no fue aceptada al principio porque, además de ser extraña y contra la lógica, estaba opacada por la fama de Thomas Edison, quien propugnada la corriente continua, es decir, aquella cuyos polos no cambian.

Fue entonces que se desató una "guerra de corrientes" entre ellos. Las razones técnicas le dieron la razón a Tesla. La corriente alterna es fácil de transformar su voltaje y se puede transmitir largas distancias con poca pérdida de energía. Además produce un campo magnético giratorio que es lo que hace funcionar los motores asíncronos, o motores de inducción. concebido también por Tesla. Sin dar mayor detalles, pero baste decir que los motores síncronos también usan corriente alterna.

En la actualidad, casi toda nuestra civilización usa la corriente alterna: casas, industrias, motores asíncronos (casi todos los motores), transmisión de radio y televisión, etc. Muy poco se usa la corriente continua: baterías de todo tipo, desde celulares, juguetes y autos. La corriente continua se reconoce porque los polos siempre están marcados con "+" y "-" para evitar equivocación.

Por: Ing. Miguel Ruiz Petrozzi.

¿Cuántos planetas tiene nuestro sistema solar?

Muchos recordamos la canción de Yola Polastri, que enumera los nueve planetas que entonces se conocían. Con la cancioncita pegajosa aprendimos cuáles eran los planetas de nuestro sistema solar. Pero, desde el 2006, ¡sólo tenemos ocho planetas!

Algunas personas estuvieron preocupadas porque pensaron que Plutón había desaparecido. La verdad es que Plutón fue degradado, ya no es planeta.

Desde 1992 ya se han descubierto una docena de objetos que podían clasificarse como planetas. La idea de agregar una enorme lista de planetas a nuestra memoria no fue el agrado de muchos, como también se pensó entonces que no estaba clara la definición de planeta. Los planetas que conocemos han sido considerados como tales desde la antigüedad, pero era urgente establecer esa definición.

En 2006, se reunieron los miembros de la Unión Astronómica Internacional y, después de acalorados debates, desplantes y críticas, se aprobó la definición de planeta que, en palabras sencillas es: (1) debe orbitar alrededor de una estrella, (2) que sea prácticamente una esfera, (3) haya limpiado su vecindad de restos, y (4) no emita luz propia. Plutón no cumple estos requisitos y, junto con otros objetos similares, se creó para ellos la categoría de "planetas enanos", de modo que tenemos ocho planetas en nuestro sistema solar: Mercurio, Venus, Tierra, Marte, Júpiter, Saturno, Urano y Neptuno. Mientras que los planetas enanos de nuestro sistema solar son: Ceres, Plutón, Eris, Makemake y Haumea.

Para agregar, se calcula que en el universo observable hay milllones de millones de planetas, pero hasta el momento se han descubierto unos 2500 orbitando otras estrellas diferentes a nuestro sol.

Por: Ing. Miguel Ruiz Petrozzi.

¿Por qué vuela un avión?

El sueño del ser humano siempre fue volar como los pájaros. Todos los intentos por hacer fracasaron y es por eso que, hasta principio del siglo XX, se creía que era imposible por razones técnicas (un objeto más pesado que el aire no puede volar), y por razones teológicas (si Dios hubiera querido que voláramos nos hubiera dado alas).

Un avión actual pesa varias toneladas, ¿cómo es que puede volar? El truco está en unas leyes físicas llamadas aerodinámica. Si recuerdas haber volado una cometa, para que alce vuelo hay que correr con ella, luego, sientes que una fuerza la levanta (normalmente creemos que es viento, pero hasta sin viento se puede levantar una cometa). Se sabe que en una corriente, ya sea de agua, aire o de cualquier fluido, hay una presión que depende de su velocidad; a mayor velocidad, menor presión.

El aire que pasa por encima del ala del avión tiene más velocidad que el aire que pasa por debajo, así que se forma una presión por arriba menor que la de abajo. Esta diferencia de presiones resulta en una fuerza hacia arriba que levanta el ala. Es por eso que los aviones tienen que correr por la pista (carretear, es el término que usan) hasta que la velocidad produzca la fuerza necesaria para alzar vuelo, al igual que la cometa.

El avión más pesado de la historia es el Antonov 225, que pesa 640 toneladas (con carga incluida al despegar).

Por: Ing. Miguel Ruiz Petrozzi.