Breve Curiosidad #60: Un adivino que no falla.

Calar Alto

Calar Alto es un observatorio hispano alemán situado en Almería, en lo alto de una montaña, en las proximidades de la localidad de Gergal.

Como parte del máster que estoy haciendo, este fin de semana tenía una visita al observatorio, con dos noches de observación en las que repartimos los proyectos propuestos por mis compañeros. Yo y un compañero propusimos el análisis de un grupo de estrellas de cuyo tipo espectral había dudas, o directamente se desconocía. Y por suerte han sido dos noches magníficas y hemos podido conseguir mucha más información que la que estimamos en un primer momento.

No os aburriré con detalles técnicos, sólo quería dejaros algunas fotos que hice de las instalaciones (y algunas de uno de los profesores), que son impresionantes:

Nota: cuando me refiero a un telescopio por su medida, dicha medida es el diámetro del espejo principal. Obviamente el resto del soporte será proporcionalmente grande.

Cúpula del Telescopio de 3.5 metros en lo alto de la montaña.

Cúpula del telescopio de 3.5 metros al atardecer, empezando a funcionar ya.

El telescopio de 2.2 metros. Este fue el "juguetito" que nos dejaron usar para nuestras observaciones.

Cúpula del telescopios de 3.5 metros, esta vez de cerca.

El "monstruo" de Calar Alto: el telescopio de 3.5 metros.

Este telescopio es absolutamente impresionante. Por otro lado, pensando que existen telescopios con 10 metros de espejo, como el Gran Telescopio de Canarias, o el futuro Telescopio Europeo Extremadamente Grandeque llegará a los 42 metros… a uno se le ponen los pelos como escarpias. Otro dato impresionante: En este telescopio la diferencia de altura entre un extremo del espejo y otro es menor a… ¡0.1 mm! Estos telescopios no sólo son unos mastodontes, sino que además son herramientas de una precisión increíble teniendo en cuenta su tamaño…

Panel de control original (1970) del telescopio de 1.5 metros, actualmente en desuso: Hace años ya que se informatizó todo el sistema y ahora los telescopios pueden manejarse cómodamente desde una sala de control en otro edificio.

Originalmente, el observatorio era básicamente Alemán. Tanto personal como tecnología e instalaciones eran alemanes, y sufragados por ellos. Los españoles poníamos poco más que el lugar, la infraestructura (carreteras) y los trabajadores de mantenimiento general (cocineros, limpieza…). Actualmente, la participación económica española asume el 50% de los gastos. La mayoría de la tecnología sigue siendo alemana, pero ya se han creado instrumentos (y se están desarrollando otros nuevos) enteramente españoles. Por otro lado, la mayoría del personal especializado (ingenieros y astrónomos residentes) son españoles que han ido sustituyendo a los alemanes que se fueron jubilando.

CAFE: Es un espectógrafo de alta resolución que se está construyendo actualmente. Una muestra de la tecnología (española) que se desarrolla en este observatorio.

Estos túneles conectan todas las instalaciones (los telescopios, la sala de control la zona de residencia...), y además de transportar la electricidad e información, son usados por los astrónomos para ir de un lugar a otro cuando la cantidad de nieve fuera hace imposible el desplazamiento.

Espero que os haya gustado. Ya os iré contando qué consigo de los datos que tomé, aunque parecen muy prometedores.

Curiosidades del Sistema Solar II: La odisea de Hayabusa

En mi opinión, la sonda Hayabusa ha marcado un hito en la astronaútica, pero además, su historia ha sido una aventura digna de contarse. Si hubiera tenido un piloto humano, diríamos que fue una aventura heroica con toda justicia. Pero aún tratándose de una máquina, fue una auténtica aventura. Y sus héroes humanos fueron los componentes del equipo de tierra de la sonda, que lograron capear con éxito los mil y un problemas que surgieron durante el viaje de esta sonda.

Por todo eso, me gustaría relatar brevemente su historia. Advierto que algunos datos pueden diferir de lo que podáis encontrar en la wikipedia, pero todos mis datos los obtuve de los anuncios oficiales de la JAXA. Dejo, al final del artículo, varios links de interés, de donde obtuve la información por si alguien quiere consultarlos.

Hayabusa fue fabricada por la agencia espacial japonesa, JAXA, con el objetivo de viajar hasta un asteroide, posarse en él, tomar una muestra y regresar a la Tierra. Esto, en esta época de exploración espacial, puede parecer poca cosa. Pero pensémoslo detenidamente, en términos justos, cuán ambicioso fue este proyecto:

  • La sonda no iba no de un planeta, que es algo «grande», con una órbita perfectamente calculada y un campo gravitatorio considerable que puede capturarla de una forma estable. Se trata de enviarlo a visitar el asteroide Itokawa, un cuerpo que no llega al kilómetro de largo (0,7 x 0,3 km)
  • Además, tenía que posarse sobre esa diminuta roca con total exactitud. Aquí no hay una gran pista de aterrizaje ni un campo gravitatorio apreciable que haga parte del trabajo: dependía completamente de la capacidad de movimiento de la sonda.
  • Y por último, debía volver a casa. Esto la convertiría en el primer vehículo espacial que tras haberse posado sobre un cuerpo extraterrestre que no fuera La Luna, conseguía volver a casa.

Originalmente, el objetivo de Hayabusa era el asteroide Nereus, pero debido a problemas con su cohete lanzador hubo retrasos, por lo que se cambió el objetivo a Itokawa.

Su aventura comienza con su lanzamiento, el día 9 de mayo de 2003. En los días siguientes se testean sus cuatro motores de iones y se comprueba que el motor A sufre inestabilidades. En consecuencia es apagado preventivamente. Nos quedan 3 motores.

A principios de noviembre de 2003, una gigantesca llamarada solar envía una enorme cantidad de plasma al espacio que inunda la trayectoria de la Hayabusa. De hecho, fue la mayor llamarada solar registrada hasta esa fecha. La sonda atraviesa esa tormenta de energéticas partículas y, poco después, se anuncia triunfalmente que la sonda está sana y salva y sigue funcionando sin problemas.

Su órbita heliocéntrica la trajo «casi de vuelta» en mayo de 2004: tras haber completado una órbita volvía a aproximarse a La Tierra para acelerarse por el efecto honda gravitatoria. Durante esta aproximación se tomaron fotos de la tierra y la Luna, para comprobar el buen funcionamiento de sus aparatos fotográficos:

Imagen de La Tierra tomada por Hayabusa. Mayo 2004. Crédito: JAXA.

Y hasta aquí la parte «tranquila». La sonda continúa su camino hacia Itokawa, pero en Julio de 2005 se reporta un error: el «volante» de dirección del eje X falla. Eso elimina la «sensibilidad» de dirección, para orientarse en el espacio, en uno de sus ejes.  Aún así la misión puede continuar… pero entonces, en octubre de ese mismo año, falla el volante de la dirección Y. El equipo estudia posibles soluciones y consiguen «parchear» la situación: continuarán la misión sólo con el volante del eje Z y dos de sus motores químicos para orientarla correctamente.

Un mes después, en noviembre de 2005, la sonda está llegando a su objetivo. ¡Por fin! se detecta a Itokawa y comienza la aproximación, durante la cual se toma esta magnífica fotografía:

Fotografía de Itokawa tomada por Hayabusa. Crédito: JAXA

El aterrizaje sobre el asteroide tiene que ser completamente automático, ya que hay un desfase de tiempo de 20 minutos debido a la distancia. Así pues, el 21 de noviembre la sonda comienza su aterrizaje. En Tierra expectación. Llega el informe de la nave y todos lo miran confusos: al parecer la nave comenzó su aterrizaje, pero sus sensores no detectaron que se hubiera posado, por lo que se inicia una maniobra de despegue de emergencia. Analizando los datos, concluyeron que la nave sí había conseguido aterrizar, pero lo hizo torcida, apoyándose sobre uno de sus paneles solares.

Sin desanimarse, programan un nuevo aterrizaje para el 26 de noviembre que concluye con éxito: la nave se posa y toma muestras. Pero entonces, al despegar de nuevo, sufre una fuga de combustible que la propulsa hacia lo profundo del espacio sin rumbo y desorientada, y lógicamente las comunicaciones se interrumpen. Tened en cuenta que el espacio es enorme y que para que haya comunicaciones tiene que apuntarse de forma muy exacta al lugar donde se encuentra la sonda, y a su vez la sonda tiene que apuntar con su antena muy exactamente hacia La Tierra. Este accidente era prácticamente una sentencia de muerte para la sonda. Sin embargo, el equipo organiza su búsqueda, agarrándose a la pequeña, casi milagrosa, posibilidad de retomar el contacto.

Transcurre una semana y no se sabe nada de ella. Y otra semana, y otra… En total 7 semanas. Y cuando casi todos la daban ya por perdida: se recibe una breve comunicación de la sonda el día 23 de enero de 2006. Gracias a esa señal la localizan y, poco a poco, consiguen determinar su rumbo y que su antena apunte hacia Tierra, para retomar su control completamente. En el momento de establecer la comunicación se había alejado, nada más y nada menos, que a 13000 km del asteroide.

El equipo analizó la situación y determinó, que pese a todo, la sonda tenía oportunidades de volver a Tierra. Eso sí, no podía volver ya al asteroide a tomar nuevas muestras y su camino de vuelta, debido a la limitación del combustible que le quedaba, iba a llevarle tres años extra de viaje. En vez de volver en 2007, lo haría en 2010.

Durante los meses siguientes se hicieron pruebas y ajustes para que la sonda pudiera regresar sana y salva; mientras sus baterías restantes, cuatro de las once estaban inutilizadas por un cortocircuito ocurrido durante la incomunicación, se recargaban.

Como dos de los controles de dirección estaban inutilizados, desarrollaron un ingenioso sistema de dirección aprovechando la presión solar (debida al viento solar y la presión de radiación), de forma que la nave detectara las variaciones de esta presión para saberse siempre orientada en relación al Sol. Y no dudo que este método se usará en tecnología para futuras sondas espaciales.

Comienza el lento, lentísimo, regreso a La Tierra. Pero no va a ser tan fácil. En abril de 2007 el motor de iones B detecta un fallo, debido a su degradación por el uso, y se apaga automáticamente. Bueno, aún quedan dos motores, aún es posible que regrese a La Tierra.

Los meses transcurren y en noviembre de 2009, casi llegando a La Tierra, falla el motor D debido a su degradación por su tiempo en uso. Queda entonces un motor: pero eso no es suficiente. El equipo encuentra una solución: usar la parte que funciona bien  del motor A, el neutralizador, en combinación con la parte que funciona bien del motor B, la fuente de Iones. Así, con dos «medios motores» consiguen un motor funcional extra. De nuevo, con un motor y dos medios, Hayabusa puede lograrlo. Y de hecho: lo logra.

El 13 de junio de 2010, la sonda llega a la tierra y su capsula de recuperación desciende según el plan previsto en el sur de Australia. Es recogida y llevada con la máxima urgencia a Japón.

Aquí podéis ver un vídeo de la NASA del momento en que la sonda reentra en la atmósfera terrestre:

Y bueno, el final de esta historia está aún por escribirse. A principios de Julio se abre el contenedor de muestras con las máximas precauciones… y sólo contiene algunas partículas microscópicas…

Estas partículas podrían ser polvo terrestre que se hubiera filtrado… o ser parte del polvo de Itokawa. Las analizan ávidamente y… en octubre de este año anuncian que, aunque no hay confirmación oficial, al menos una parte de ellas parece de origen extraterrestre. Ahora cada mota de ese polvo es más valioso que un diamante, y va a ser estudiado con el máximo cuidado para extraer toda la información que sea posible.

Desde aquí, mi más sincera felicitación a la JAXA y el equipo de la Hayabusa por esta larga odisea de 7 años.

Fuentes:

http://www.isas.ac.jp/e/topics/index.shtml

http://www.isas.jaxa.jp/e/topics/2010/image/0514/presskit_hayabusa_e.pdf

Tijeretazo a I+D=tijeretazo a nuestro futuro

La historia del desarrollo científico y tecnológico de este país en los últimos dos siglos puede describirse con pocas palabras: precario, lento y desestimado.

Los investigadores han ido siempre con medios muy limitados y la grandeza que han alcanzado algunos, más que gracias a nuestro sistema, ha sido a pesar de él. Veamos, por ejemplo,  las palabras de Santiago Ramón y Cajal, Premio Nobel de medicina:

«¡Quién tuviera esos magníficos objetivos a que Fleming, Strassburger y Carnoy deben sus descubrimientos! ¡Quien pudiera poseer un Seibert 1/16 o un Zeiss 1/18! Aquí, desgraciadamente, las facultades no tienen material y aunque yo me empeñara en pedir uno de esos objetivos no me lo consentiría el decano por falta de fondos. Mucho envidio más aún esa riqueza de medios técnicos de que Vs. goza, con la que se hace cuanto se quiere. Yo tengo que resignarme con un objetivo 8 de inmersión Verick y éste gracias a que es de mi propiedad, que por Facultad no tendría más que un 5 o un 6 Nachet.»(*)

Por mucho que  no tengamos mucha idea de microscopios (yo no la tengo), su tono es inconfundible. Así, cuando inició sus investigaciones gastó sus ahorros en comprar sus propios instrumentos, el citado Verick, y algunas cosas más.

Es cierto que cuando hay crisis hay que apretar el cinturón, pero reducir la inversión en ciencia, cuando ya es bastante pequeña, es un absurdo. Es paliar la escasez de hoy hipotecando el futuro. Por que nuestra prosperidad futura pasa por el desarrollo técnico y científico. Y para el que lo dude sólo hay que echar un vistazo a  la historia de este país y ver cómo los grandes avances técnicos han llegado casi siempre del extranjero y más tarde que pronto.

En la edad media y la edad antigua lo que medía el desarrollo de una nación era la capacidad para producir mayor cantidad de bienes primarios. Con mejores técnicas y herramientas podían obtenerse mejores cosechas, y mayor producción de otros recursos, como metales. Eso significaba aumentar la riqueza, el bienestar, el desarrollo del comercio y las ciudades…

En cambio, en la época colonial, lo que diferenciaba a la colonia de la metrópoli es que la colonia suministraba productos primarios que eran trasladados a la metrópoli, en dónde la industria local los manufacturaba para ser exportados. La producción de los bienes primarios había dejado de ser la prioridad de la metrópoli, ya que podía obtenerlo de otros lugares gracias a la mejora de las comunicaciones. Lo que poseía la metrópoli y no ningún otro sitio era la capacidad industrial. Y eso no es tan sencillo como llegar y poner una fábrica: necesitas primero gente con formación tal que puedan tener nuevas ideas: científicos. Y una vez tienes la nueva idea necesitas ingenieros que encuentren las aplicaciones y las desarrollen de forma efectiva, lo que a la larga generará riqueza, porque puedes producir más, más barato, mejor y más rápido.

Ahora, en el siglo XIX lo que va a diferenciar a un país desarrollado de uno en desarrollo no va a ser dónde se pone la fábrica, ya que la mejora de comunicaciones ha permitido que se puedan producir bienes en un extremo del mundo que lleguen a todo el globo. Y claro, las fábricas «clásicas» se van a poner dónde sea más barato producir (con todas las consecuencias sociales que esto implica). Lo que va a diferenciar a unos países de otros es la investigación de nuevas tecnologías y la industria de tecnologías punteras, porque requieren gente muy especializada que no todos los países pueden llegar a formar. Y este país tiene la oportunidad de ser una potencia en este aspecto… pero la deja ir.

Aquí se potencia sobre todo la industria «clásica» y el sector servicios, porque es lo que nos ha traído bienestar en los últimos 50 años, pero lo hizo porque éste era un país en desarrollo, más barato y en el que salía bien invertir en estos aspectos, tal como ocurre ahora con otros países… pero no ya con este.

Los políticos son incapaces de pensar a largo plazo y no se dan cuenta cómo los países líderes en tecnología han llegado a ser lo que son: INVERSIÓN EN I+D.

Lo que va a medir la prosperidad de un país de aquí a 100 años va a ser la producción de conocimientos técnicos y científicos y el desarrollo tanto de las tecnologías necesarias para dicha producción, como de las tecnologías nacidas a partir de ella. Lo que va a poder tener un país desarrollado y no otros va a ser la producción de tecnologías nuevas.

Pero aquí se apostará por servicios e industria y lo que obtendremos será precisamente eso: convertirnos en un país de servicios e industria básica, que es el equivalente a apostar por el sector primario en plena revolución industrial: es decir, apostar por lo que cualquier otro puede producir también. Y cuando se trata de algo que todo el mundo puede producir… ¿dónde está el beneficio? pués donde salga más barato. Y veremos con eso qué prosperidad nos espera.

Y para muestra sólo hay que ver Japón. Al igual que nosotros, tenían su país en las ruinas hace 50 años. Y ahora son potencia mundial en alta tecnología, mientras que nosotros somos una potencial industrial más de la lista… y cada vez menos. La diferencia está en que ellos invirtieron de verdad en desarrollo científico-técnico y nosotros no. Y seguimos sin aprender la lección.

(*) cita sacada del estupendo artículo «El de Petilla de Aragón»

Publicado en Reflexión. Etiquetas: , , . 2 Comments »

Breve Curiosidad #13: Un mundo exponencial.

Estos dáis ando con bastante poco tiempo, así que hoy traigo una breve curiosidad. Sin duda este video es bastante interesante y que debe hacernos pensar un poco sobre el desarrollo del mundo actual. Del video me quedo con la frase que da nombre a este post: vivimos en un mundo exponencial.

Por supuesto, estos videos no siemrpe son fiables o veraces en sus contenidos, pero hasta donde yo sé, los datos de este son correctos. Si alguien tiene alguna crítica en ese sentido, espeor que lo comente por aquí ^^

La evolución… tecnológica III

Hace unos días hablé aquí de la similitud de ciertos aspectos del desarrollo tecnológico con la evolución biológica. En concreto comenté el caso de los teclados de ordenador como evolución de las máquinas de escribir: La evolución… tecnológica I

Y justo antes de publicar el artículo que estáis leyendo ahora mismo, he colgado un brevísimo post: La evolución… tecnológica II. Este artículo ha sido escrito por mi amigo Gálago – Al, como respuesta a mi primer artículo sobre el tema y me ha parecido una pena que se quedara escondido entre las respuestas.

Para hoy me había reservado el ejemplo original que me inspiró estos artículos. Se trata de un caso realmente curioso de adaptación tecnológica: en vez de hacerlo desde cero, partir desde lo que ya existe minimizando costes. Y cómo esta adaptación, que actualmente parece completamente arbitraria, ha condicionado nuestra más avanzada tecnología.

Todo comienza con un avance revolucionario en la tecnología del transporte: la rueda. Pero para nosotros lo interesante comienza mucho después, en los siglos en los que roma se expandió por todo el mediterráneo. Los ejércitos romanos, era impresionantes en su capacidad de ingeniería, tanto militar como civil.

Una de las principales premisas de las legiones fue la velocidad de sus ejércitos. Esto es debido a que fue habitual, durante su periodo de expansión, que sus tropas fueran mucho menos numerosas que las del oponente y debían compensar el número con mejores tácticas y velocidad. Así, las calzadas romanas se construyeron sobre los caminos dejados por las legiones y surgieron, precisamente, como medio para movilizar rápidamente sus tropas.

Pero pensemos en una cuestión fundamental y es cómo se desenvolvían cuando no tenían las calzadas. Bien porque estuvieran en territorio enemigo o bien porque aún no las habían construido. El paso de miles de infantes, termina creando una senda bastante transitable, pero los carros de suministros son una cuestión muy diferente. Sus rodadas quedaban marcadas en el terreno y después de unos cuantos carros, las rodadas quedaban marcadas en el terreno.

Por eso todos sus carros tenían un ancho estandarizado de distancia entre las ruedas. En consecuencia era de cajón, para cualquiera que quisiera aprovechar los caminos que abrían los romanos, que sus carros debían tener el mismo ancho. De no ser así no podrían usar el camino ya que las ruedas, al no encajar en la rodada, podían romperse con facilidad. Posteriormente las calzadas romanas empedradas se construyeron pensando en el tamaño estandarizado, así que con su presencia no hizo desaparecer la necesidad del estándar.

Los romanos se expandieron, conquistando y romanizando casi toda Europa. Y romanizar significa que todos los carros se construían con un ancho fijado, es decir, a la manera romana. Este ancho pervivió después de la caída del imperio ya que la tradición y la necesidad de que los caminos que abrían los carros sirvieran para cualquier carro, seguían muy presentes.

Llegamos entonces a la revolución industrial y los primero ferrocarriles. Había que construir un chisme con ruedas que vaya por unos raíles. ¿Qué ancho usar? Pues sencillo, el de siempre: el que se empleaba para todos los chismes con ruedas. El mismo que habían establecido los romanos.

viatren

Todos los países Europeos, con la curiosa excepción de nuestro país, tenían el mismo ancho. Pero claro, este ancho se exportó allí donde se exportara la tecnología del ferrocarril. Por lo que EEUU, pese a no haber sido romanizada, tenía el mismo ancho de vías que el ancho de las rodadas romanas.

shuttleAvancemos ahora hasta otro hito de la tecnología del transporte: el transbordador espacial. Todos habréis visto fotografías de la lanzadera y sabréis que para ponerla en órbita dispone de tres cohetes. Uno central, muy grande, y otros dos laterales, más alargados.

El ancho de los cohetes laterales no es para nada arbitraria. Obedecía a una importantísima cuestión… logística. Desde donde los fabricaban debían llevarlos por tren hasta las instalaciones de la nasa y eso incluía pasar por los túneles de las rocosas, cuyo ancho estaba diseñado para trenes normales, claro. Así que pese a lo que hubieran preferido realmente, tuvieron que adaptarse a la situación.

Por tanto, podemos ver cómo una premisa técnica se propaga irremediablemente en el tiempo, obligando a lo desarrollado posteriormente a tomarlo como punto de partida. Es decir: adaptación tecnológica.

Durante todo el artículo, he estado hablando del dichoso ancho de los romanos, pero no he dicho cuánto era. La respuesta es 4 pies y 8,5 pulgadas. Viene a ser algo más de 1,40 metros. ¿Porqué esa y no otra? Bueno, fue una cuestión muy práctica. Esa distancia es en la que cabían dos caballos de tiro para el carro.

Conclusión: El diseño de una nave espacial se ha visto condicionado tecnológicamente por el ancho de un par de traseros equinos.

Esta curiosa historia es originalmente de Didier Nordon, un columnista habitual de Pour la science.

¿Conocéis algún otro ejemplo de adaptación tecnológica? Pues comentadlo ^^

La evolución… tecnológica II

Escrito por Gálago – Al, originalmente como respuesta en La evolución… tecnológica I

Otro ejemplo de evolución tecnológica lo tenemos con nuestra “querida” arquitectura Intel x86 (386,486,pentium,core 2 duo, etc).
Ésta es la que tenemos en la mayoría de ordenadores hoy y que por cosas del mercado y no por ser la mejor se convirtió en estándar, luego otras compañías como AMD heredaron esta “maravilla” para llegar a todos los públicos y quedarse con su trozo del pastel.
Quizá me he adentrado demasiado rápido en el asunto, con arquitectura me refiero a como está construido internamente un microprocesador, o ¿qué cosas hace y cómo? el juego de instrucciones, ciclos por instrucción, la gestión de memoria, etc.

La arquitectura de los procesadores “x86″ ha ido evolucionando desde los 8 bits hasta los 64 bits actuales conservando siempre la compatibilidad hacia atrás, ya son 30 años desde que salió y se ha ido ajustando a lo que la tecnología precisaba, así desgraciadamente hacen del x86 uno de los procesadores con la arquitectura más caótica, enrevesada, ineficiente y obsoleta de la historia. La cosa sigue siendo “aceptable” debido a los avances en la velocidad del reloj y poco más, pero realmente si se hubieran hecho las cosas bien desde el principio o se hubiera hecho borrón y cuenta nueva la cosa iría bastante, bastante mejor. Hubo intentos de realizar esta cruzada pero sin mucho éxito ya que el mercado es muy tozudo, esperemos que no tengamos que estar sufriendo x86 toda la vida.

Para los que os interese el tema, está de moda ahora el debate RISC vs CISC que son dos paradigmas distintos de la arquitectura de un procesador, resumiendo los CISC tienen un repertorio de instrucciones muy amplio pero ineficiente, corresponde a las siglas (Complex Instruction Set Computer) y la familia x86 es una de ellas, luego se demostró empíricamente que en la ejecución de programas, solo el 10% de las instrucciones realizan alrededor del 90% del código, las otras son rara vez usadas y añaden mucha complejidad e ineficiencia al micro, por eso se pensó en RISC (Reduced Instruction Set Computer) que es precisamente lo opuesto a CISC, pocas instrucciones y muy rápidas, con estas pocas instrucciones se podían realizar las complejas de CISC combinándolas entre ellas. Más información http://es.wikipedia.org/wiki/RISC y http://www.azc.uam.mx/publicaciones/enlinea2/num1/1-2.htm

La evolución… tecnológica I

La evolución biológica no está planificada, se pongan como se pongan algunos. Esto lleva a que a lo largo de la evolución, muchas partes de los organismos se «reciclen», cambiando sus funciones (o añadiéndolas) o directamente convirtiéndose en obsoletas. Es una cuestión de economía: es más sencillo (en términos de tiempo y energía) aprovechar lo que ya hay, que generarlo desde cero. En resumen: adaptación.

Es curioso que esto mismo podemos verlo en la evolución tecnológica humana, que lejos de ser un «gran plan» ha sido (y sigue siendo) una fuerza «inconsciente». No me refiero a que el desarrollo tecnológico puntual no esté planificado, obviamente así es. Me refiero a que en conjunto, la evolución tecnológica global es la suma de un gran número de avances, a veces contradictorios o contraproducentes. Por ejemplo, muchos de vosotros recordaréis la «guerra» VHSBetamax. Para los que no la recordéis, viene a parecerse mucho a la «guerra» tan reciente entre Blueray y los HD DVD. Al final se trata de lo mismo en ambos casos: surgen dos tecnologías diferentes para una misma función y termina sobreviviendo la «mejor». Pero no tiene porque ser la «mejor» en calidad y prestaciones, sino económicamente.

Así, vivimos rodeados de avances suboptimizados por la simple razón de que es más sencillo y barato mantenerlo así que mejorarlo o cambiarlo: Es más sencillo y barato adaptar lo que ya había, que rediseñar desde cero.

Mirad, por ejemplo, algo tan cotidiano como los teclados de ordenador. ¿Porque esa disposición en las letras? Muchos pensaréis que es porque está optimizado para poder teclear más rápido y es cierto. Pero no del todo. Los teclados de ordenador tienen la misma disposición que los de las máquinas de escribir mecánicas.

La distribución de las teclas en la mayoría de máquinas de escribir (y por tanto de teclados modernos) se llama QWERTY. Un nombre bastante obvio si os fijáis en vuestro teclado. Existían y existen variantes para otras lenguas. Franceses, italianos y alemanes tenían sus propias variantes que se alternaban con la QWERTY. Los españoles es que somos así de cómodos y no creamos nuestra propia variante, que yo sepa. Siempre hemos usado la anglosajona original.

Ahora bien, el QWERTY no está realmente optimizado y la razón era práctica. Y es conocida por cualquiera que haya «jugueteado» con una máquina de escribir alguna vez (yo lo hice).

El mecanismo de una máquina de escribir consiste en varillas que tienen los caracteres en relieve. Al pulsar una tecla, la varilla del carácter elegido sale disparada e impacta sobre una cinta entintada situada delante de la hoja de papel. De esta manera el carácter en relieve se marca con tinta sobre la hoja de papel. Más vale un vídeo que mil palabras, para aquellos que nunca hayáis visto una máquina de escribir en funcionamiento. Eso sí, las varillas van a toda leche y no se las ve claramente, así que hay que fijarse bien:

¿Qué ocurre si pulsas las teclas demasiado rápido o varis a la vez? Pues que las varillas chocan entre ellas, estorbándose, estropeándose y enganchándose unas con otras. El diseño QWERTY evita esto con mucho éxito, colocando las teclas de tal forma que ralenticen a un mecanógrafo experto en su escritura. Al ralentizarle se evita que las varillas puedan chocar. Es una solución que obedece a la mecánica de la máquina y no a la optimización del proceso.

Cuando se incluyeron teclados a los ordenadores comerciales, se usó el modelo QWERTY, lo que es absurdo pues un ordenador no tiene varillas que puedan chocar. Pero claro, la alternativa era re enseñar a todos los mecanógrafos a escribir en un teclado completamente diferente. Era mucho más sencillo conservar el modelo suboptimizado que ya sabía usar todo el mundo. En conclusión, el teclado que usáis es un atavismo.

Existe un modelo optimizado a la escritura en ordenador, llamado teclado Dvorak (por el apellido de su inventor).Aquí podéis ver un esquema de este teclado:

span_dv

Al contrario de lo que podáis pensar, este diseño es bastante antiguo (1932) y estaba ideado para máquinas de escribir pero obviando el problema mecánico de las varillas. Sin embargo, es perfecto para ordenadores. Según los que saben usar este teclado aumenta la velocidad de escritura hasta un 20% más rápido (Editado: Gracias por el aporte JumanX). Casi nada.

EDITADO: He investigando un poquillo y al parecer no hay una comprobación oficial de que realmente Dvorak sea más eficiente que QWERT. La referencia a la velocidad de escritura la he encontrado en artículos escritos por usuarios de Dvorak, pero no deben ser considerados como un dato incontestable.

¿Se os ocurren otros ejemplos de atavismos tecnológicos? Pues comentádmelo. Yo tengo otro más, muy interesante, que publicaré en un par de días y estaré encantado de citar los que vosotros conozcáis.