Métricas vs Dimensiones

Una de las primeras dudas que surgen al comenzar a trabajar con una herramienta de analítica web (como Google Analytics) es saber diferenciar claramente las métricas de la dimensiones. Esto es básico ya que los informes de analítica se crean combinando estos dos conceptos.

Las dimensiones son características de los usuarios de un sitio web, por ejemplo la ciudad desde la que se inicia la sesión (Madrid, La Coruña,…) , o el navegador que ha utilizado (Chrome, Firefox,..).

Las métricas son una medida cuantitativa (un número, un porcentaje), como la cantidad media de páginas vistas por sesión (Páginas/Sesión) o el número total de sesiones (una sesión es un conjunto de interacciones – páginas que se han visto, compras, visualización de un video, etc. – que tienen lugar en un sitio web durante un periodo de tiempo determinado).

dim_metricas

Cada métrica y cada dimensión tiene un alcance determinado (sesión, usuario o acción). Por ejemplo, una dimensión de sesión puede ser la fuente de tráfico (de dónde viene vienen los usuarios a tu web), una dimensión de usuario puede ser la localización geográfica, y una dimensión de acción puede ser el título de la página que han visto.

 

 

 

 

De KPIs, objetivos y métricas

KPI significa Key Performance Indicator (Indicador Clave de Rendimiento en castellano), y es una medida cuantificable que es ampliamente utilizada en empresas para ayudar a definir y medir el nivel de progreso logrado con respecto a los objetivos marcados. 

La principal finalidad de los KPIs es traducir un objetivo abstracto y a veces complejo en uno o varios indicadores simples que pueda ser cuantificados y por tanto, medidos. Es por eso que los KPIs deben estar bien alineados con los objetivos de negocio, e informar estrictamente sobre las métricas que son importantes para la empresa. Otra de las utilidades que pueden tener los KPIs es que permiten observar la evolución en el tiempo de esos aspectos importantes.

Tal y como lo define Avinash Kaushik, desde el punto de vista de la analítica web, un KPI es una métrica que te ayuda a saber si lo que estás haciendo te está acercando a la consecución de los objetivos marcados [A Key performance indicator (KPI) is a metric that helps you understand how you are doing against your objectives] .

Una buena definición de los objetivos y los KPIs de una web es una tarea fundamental, y resulta ser una de las más importantes para un analista web. ¿Y cómo sabemos si nuestra definición de objetivos y KPIs es buena? Podemos usar este truco para recordar las características que deben cumplir los objetivos: aplicar el acrónimo SMART, ya que deben ser:

  • Specific (Específicos)
  • Measurable (Medibles)
  • Achievable (Alcanzables y Realistas)
  • Relevant (Relevantes)
  • Timely (Temporales, que permitan hacer un seguimiento de su evolución en el tiempo)

La lista de KPIs resultante asociada a los objetivos no debería ser muy larga, ya que se deben escoger solo los que determinen la consecución o no de dichos objetivos.

Los objetivos de un sitio web dependerán, obviamente, del tipo de web que sea y del negocio en particular. Por ejemplo, en el caso de una web de e-commerce, algunos de los KPIs a medir serían:

  • Tasa de conversión
  • Pedido medio
  • Tasa de abandono del carrito
  • Conversiones por campañas
  • etc

Sin embargo, en un sitio web de publicaciones (blog, periódico online,…) estarían interesados en KPIs del tipo:

  • Tasa de rebote
  • Promedio de tiempo en el sitio
  • Fidelización de suscriptores
  • Número de suscriptores
  • etc

 

Comenzando… ¿y qué es eso de la Analítica Digital?

La Analítica Digital (Digital Analytics) es una disciplina que nació con internet allá por los años 90, y que consiste en la captura y análisis de datos sobre el comportamiento de las personas en su interacción con un sitio web. El objetivo final de este análisis es la creación de informes o insights relevantes que permitan tomar decisiones que optimicen la página web, es decir, mejoren la experiencia del usuario para que se quede durante más tiempo y con eso alcanzar los objetivos de negocio con una mayor eficacia.

Analitica_web

El inicio de la Analítica Digital se sitúa en el año 1993. En ese momento, el primer navegador se acababa de presentar al mercado y la necesidad de analizar los datos de la navegación de los usuarios surgió de manera natural con preguntas como ésta que los responsables de marketing de aquellos años se empezaron a plantear, ¿qué información tenemos de lo que ocurre en mi sitio web? El crecimiento del mercado de la Analítica Web fue similar al de internet, y en el año 1999 la industria de la Analítica Web aumentó un 200%.

En aquel momento la analítica web se llevaba a cabo principalmente mediante el estudio de los enormes archivos de registro (logs) de los servidores web. Todas las peticiones a un servidor web se registran en un archivo (normalmente en formato texto) que se guarda en el propio servidor. Luego se utiliza un software de análisis de registro que se ejecuta en la propia empresa y analiza cada día todos los registros generados por la actividad en el sitio web. Este tipo de técnica se denomina obtención de datos del lado del servidor.

La otra gran técnica de Analítica Web basada en las etiquetas del navegador (tags) en aquellos años era utilizada sobre todo por empresas pequeñas. Esta tecnología se basa en los datos recogidos por el navegador de un visitante, obtenidos mediante el uso de código especial en las páginas de un sitio web que hace referencia a un archivo JavaScript externo. A diferencia de la anterior, esta técnica es conocida como obtención de datos del lado del cliente.

Alrededor del año 2001, el mercado de la analítica disminuyó un 7% y el número de proveedores de servicios relacionados con ella se quedó en la mitad. En ese momento las soluciones basadas en etiquetas comenzaron a aumentar su popularidad, convirtiéndose hoy en día en la técnica predominante.

En esta última década, con el increíble crecimiento del e-commerce y del negocion online en general, las empresas han tenido que adaptarse a nuevos comportamientos de compra y a un tipo de mercado muy diferente al offline, un mercado muy dinámico y difícil de precedir, de ahí que el uso de soluciones de Analítica Digital se haya vuelto algo muy útil para reducir esa incertidumbre y ayudar a los departamentos de IT, diseño y marketing en la toma de decisiones eficientes, basándose en información relevante y real de lo que hacen los visitantes en su sitio web.

 

¿Sabes cuál fue el primer ordenador que tuvimos en España?

El modelo 650 de IBM fue uno de esos ordenadores que marcan historia. Lo hizo, nada más y nada menos, que en tres ocasiones: fue el ordenador más vendido en los años 50, el primer ordenador fabricado a gran escala, y además, algo especialmente importante para nosotros, fue el primer ordenador que tuvimos en España, por lo que marcó el inicio de “nuestra” historia informática.

Desde un punto de vista histórico, podemos decir que IBM empezó a fabricar este modelo de ordenador en el año 1953 y que fue tal su éxito, que el nivel de ventas que alcanzó multiplicó casi por 40 las expectativas de IBM: la compañía estimaba vender e instalar unos 50 equipos, pero acabó vendiendo casi 2.000 hasta 1962, año en que dejó de fabricarse.

Quizá una de las razones de su éxito es que fue visto por las grandes empresas como una buena opción para optimizar el tratamiento y cálculo de datos. De hecho, la primera unidad de IBM 650 se instaló en una empresa aseguradora de Boston. A España también llegó de la mano de una gran empresa, en este caso RENFE, en el año 1958. RENFE lo utilizó para el cálculo de nóminas y para el tratamiento de datos de control ferroviario.

Desde un punto de vista técnico, podemos decir que este ordenador, basado en válvulas de vacío, pertenece a la primera generación de computadoras. Más concretamente, se sitúa en un momento de transición entre esta primera generación de computadoras, y la segunda, que comenzó en el año 1958. Tenía 2.400 válvulas de vacío, que constituían una memoria que el ordenador utilizaba mientras procesaba operaciones matemáticas y que, una vez apagado el ordenador, se vaciaba.

Una de las partes más importantes del IBM 650, y que le da su nombre (Magnetic Drum) es el tambor magnético. Gracias a ese dispositivo, el ordenador podía almacenar datos de forma permanente. En concreto, el tambor magnético podía almacenar 1.000 palabras de 10 dígitos con signo, que podía ser positivo o negativo. Podemos decir que esta cantidad equivale aproximadamente a 4KB, más de un millón de veces menos que lo que hoy en día guardamos en un disco DVD. Con esta pequeña capacidad, el ordenador podía almacenar programas, una característica que todavía resultaba bastante novedosa en aquella época y que fue otra de las claves de su éxito.

A estos datos sobre el IBM 650, que ya resultan bastante llamativos, podemos añadir su tamaño, 150 veces superior a un ordenador actual, y sus limitadas posibilidades de procesamiento comparadas con lo que hoy en día entendemos como ordenador, ya que únicamente podía realizar operaciones matemáticas básicas. Realmente su funcionamiento era más similar al de una calculadora, pero una calculadora realmente grande y rápida que podía computar más de mil sumas por segundo.

Y así es, aunque ahora nos resulte difícil de creer conociendo los increíbles avances alcanzados por la tecnología informática, todas estas prestaciones convirtieron al IBM 650 en ese ordenador que marcó un hito, y que se recuerda como uno de los modelos más importantes de la historia de la computación.

Si os apetece ver este ordenador “en directo”, os invito a venir a la sede de A Coruña del MUNCYT (Museo Nacional de Ciencia y Tecnología), ya que aquí se expone la unidad de control (Console Unit en la foto superior) del IBM 650 que RENFE compró en el año 1958, y que fue, como ya os he comentado, el primer ordenador que utilizamos en España. Es muy interesante examinar el cableado, el tambor magnético y el panel de control de usuario, os lo recomiendo. Y para los más adentrados en la materia, os reto a que os fijéis en el sistema biquinario (que no binario) que utilizaba el ordenador para visualizar los datos y que estaba formado por esos conjunto de 7 luces, 2 en horizontal (parte bi-naria) y 5 en vertical (parte qui-naria) que veis en esta foto:

Aquí podéis ver una foto del IBM 650 expuesto en el MUNCYT A Coruña.

 

Eclipse total de sol

El próximo 20 de marzo se producirá un eclipse total de Sol, y Galicia será la zona de España más privilegiada para su observación, ¡qué suerte para mí que vivo en A Coruña! De todos modos, desde España la visualización del eclipse será solo parcial. Se calcula que empezará a las 9:05, con su momento cumbre a las 10:09, y su finalización a las 11:18. Es una gran oportunidad para observar un fenómeno poco frecuente, ya que las previsiones dicen que hasta el año 2026 no habrá otro que sea visible desde la península.

A la hora de la observación es muy importante recordar que no se puede mirar hacia el Sol directamente, ni a simple vista ni con gafas de sol. Tampoco con prismáticos o telescopios que no tengan puestos los flitros solares correspondientes. Existen gafas especiales para la observación de eclipses, y si no dispones de ellas es totalmente seguro seguir el eclipse viendo su imagen proyectada sobre algún tipo de pantalla situada a la sombra.

Un eclipse solar se produce cuando la luna se interpone delante del Sol desde la perspectiva de la Tierra, ocultándolo total o parcialmente. Aquí tenéis una imagen que muestra las posiciones de la Tierra, la Luna y el Sol durante un eclipse solar:

Geometry_of_a_Total_Solar_Eclipse_new

En la web del Instituto Astronómico Nacional tienen toda la información sobre este eclipse, así como recomendaciones para su observación y muchas curiosidades y datos sobre este tipo de fenómenos.

¿Quién fue y qué hizo Alan Turing?

Alan Turing fue un pionero de los campos de la computación y la inteligencia artificial, y uno de los padres de la informática actual.

Nació en 1912, en el seno de una familia de clase media londinense. Su padre, funcionario británico en India, deseaba que Alan fuera criado en Inglaterra. Por esa razón, cuando sus padres regresaron a India, lo dejaron al cuidado de unos amigos. Tenía solo 1 año de edad.

Durante su periodo de estudiante, pasó por diferentes centros de prestigio como el King’s College de Cambridge y la Universidad de Princeton, en los que se especializó en matemáticas, lógica y teoría de probabilidades. En 1936 publicó un trabajo en el que propuso un ingenio abstracto, conocido posteriormente como máquina de Turing. La máquina de Turing es un modelo matemático que opera y lee instrucciones de una cinta y que es capaz de emular la lógica de funcionamiento de cualquier algoritmo de un computador. Lo más sorprendente es que Turing desarrolló este modelo, que podía describir el funcionamiento de los ordenadores, antes de que existiera la tecnología capaz de construirlos.

máquina de Turing

En la imagen se muestra una representación artística de la máquina de Turing

En 1938, tras completar su doctorado en Princeton, Alan regresó a Gran Bretaña y comenzó a trabajar en la Escuela Gubernamental de Códigos y Cifrados, donde investigó sobre el descrifado de códigos de la máquina alemana Enigma. Al principio no se dedicó exclusivamente a esta tarea, pero tras el estallido de la Segunda Guerra Mundial se mudó a Bletchley Park y se concentró por completo en la criptografía.

Trabajando en Bletchley Park junto con otros colegas desarrolló La Bombe, una máquina electromecánica basada en el trabajo de unos criptógrafos polacos y con la que se consiguió descrifrar el código de las Enigma. El funcionamiento de La Bombe se basaba en una heurística que permitía acotar las posibilidades descartando las combinaciones menos probables. Lo que hacía era estudiar todas las posibles soluciones a fragmentos del texto original cifrado. Como se centraba en pequeños fragmentos, lograba descartar rápidamente gran cantidad de combinaciones que daban resultados sin sentido. Cuando La Bombe daba con una combinación exitosa se desconectaba la corriente eléctrica.

maquina enigma La Bombe

En las imágenes se muestra una Máquina Enigma (de la exposición QWERTY en MUNCYT Coruña) y La Bombe

Podemos hacernos una idea del tamaño de La Bombe si tenemos en cuenta que la primera que se instaló en 1940 estaba formada por casi 100.000 piezas, 19 kilómetros de cables y 100 cilindros numerados iguales que los que tenían las máquinas Enigma. Cinco años más tarde, ya funcionaban 100 máquinas como esta a la vez, llegando a descodificar 2 mensajes por minuto. El descifrado de los códigos alemanes fue esencial para ganar la Segunda Guerra Mundial y por esta razón Alan Turing fue condecorado con la Orden del Imperio Británico en 1945.

Tras su estancia en Bletchley Park, Turing pasó a trabajar en el National Physical Laboratory de Londres, en el que pudo aprovechar su experiencia de trabajo con la computadora Colossus para diseñar el que podría haberse convertido en el primer ordenador de programa almacenado, ACE. Sin embargo, el proyecto se retrasó y no llegó a completarse hasta 1950.

test de turingDecepcionado por estas demoras, Turing aceptó un puesto en la Universidad de Manchester en 1948 y se centró en el estudio de un concepto clave de la inteligencia artifical: ¿hasta qué punto podemos considerar a una máquina “capaz” de pensar? Como resultado de esta investigación, desarrolló un experimento conocido como test de Turing.

El test de Turing se basa en comprobar si un ordenador puede convencer de que es humano a un interrogador durante una conversación (suponiendo que el interrogador no sabe si está hablando con una persona o con un ordenador).

Aparte de la computación, Turing era un apasionado de la neurología y la fisiología y quiso aplicar sus teorías matemáticas a la biología. De esta forma llegó a completar un importante trabajo sobre la morfogénesis en 1952.

La última fase de la vida de Alan Turing es bastante triste, ya que fue sometido a juicio y condenado por homosexualidad, un delito grave en la Gran Bretaña de entones. Sus opciones de condena fueron la cárcel o un tratamiento hormonal. Turing optó por un tratamiento hormonal con estrógenos. Este tratamiento le provocó terribles efectos secundarios como obesidad, crecimiento del pecho e impotencia. Finalmente, en junio de 1954, Alan fue encontrado muerto en su casa, junto a una manzada mordida que contenía cianuro.

Y algunas curiosidades más…

1. Existe la leyenda de que el logo de Apple hace referencia al suicidio de Turing mordiendo una manzada envenenada, pero Steve Jobs lo desmintió en varias ocasiones.

2. Turing era bastante descuidado con su imagen personal y no pasaba desapercibido: iba totalmente desaliñado, no se afeitaba demasiado porque si se cortaba y veía sangre se mareaba y tenía los dientes amarillos aunque no fumaba.

3. Corría para desestresarse y alcanzó muy buenas marcas en maratón. En una carrera campo a través llegó por delante de Tom Richards, medalla de plata en los Juegos Olímpicos de 1948.

4. Era muy maniático. Por ejemplo, encadenaba su taza de café al radiador para que nadie se la llevara, llevaba una máscara de gas en verano para evitar los efectos de su alergia al polen, tenía una bicicleta con la cadena estropeada que solo él sabía manejar… además de carecer de habilidades sociales, rasgo que algunos han asociado al autismo.

Un poco de filosofía de la ciencia: ¿Qué quiere decir que algo está “científicamente demostrado”?

Que algo esté “científicamente demostrado” significa que la comunidad científica en su conjunto acepta ese “algo” como válido y como base para continuar con la actividad investigadora. Sin embargo, que algo esté “científicamente demostrado” no significa indiscutiblemente que sea una verdad definitiva ya que, como ha ocurrido en muchos momentos de la historia de la ciencia, teorías que en determinado periodo de tiempo se consideraban ciertas y “científicamente demostradas” han resultado posteriormente refutadas y sustituidas por otras. Se puede decir que las teorías científicas son “provisionales”, de modo que se encuentran expuestas a ser reemplazadas o ampliadas por nuevas teorías que expliquen hechos que ellas no pueden explicar.

La corriente filosófica del falsacionismo, cuyo máximo representante es Karl Popper, asegura que ninguna teoría científica puede considerarse “definitivamente verificada” ya que, por muchas veces que se haya observado experimentalmente que la teoría se cumple, siempre puede ocurrir que la siguiente vez que se intente comprobar, la teoría falle. Esto es debido a que el número de casos favorables que corroboran la teoría, por muy grande que sea, siempre sea insignificante con respecto al número de casos teóricamente posibles, que es infinito. Entonces, la probabilidad de confirmación de cualquier teoría científica sería cero (el número de casos favorables dividido entre infinito siempre es igual a cero). Lo que sí afirma el falsacionismo es que se puede verificar la falsedad de las teorías científicas. Con que sólo una vez se observe que la teoría falla, ya podemos considerarla como falsa. La calidad de una teoría radicará, entonces, en su capacidad de ser sometida a prueba, y en la cantidad de veces que sea capaz de resistir los intentos de refutación. Cuantas más veces sea puesta a prueba y salga victoriosa, más se aproximará esa teoría a la verdad, pero nunca podrá llegar a calificarse como “definitivamente verificada” ya que puede ser que no supere la siguiente prueba.

Otros grandes filósofos de la ciencia han expuesto sus posturas acerca de cómo se ha desarrollado la historia de la ciencia y han explicado que la ciencia progresa gracias a que se desarrollan nuevas teorías que en algunos casos sustituyen y mejoran a sus predecesoras. Por ejemplo, Thomas Kuhn, divide la historia de la ciencia en periodos de ciencia normal y periodos de ciencia revolucionaria. En los periodos de ciencia normal, las teorías y leyes científicas existentes se aceptan en su totalidad y se consideran verdaderas. La ciencia se desarrolla utilizándolas como base de conocimiento. Cuando llega un momento en que el conocimiento científico existente no es capaz de resolver muchos de los problemas que surgen, ocurren los periodos de ciencia revolucionaria, en los que algunos científicos proponen unas nuevas teorías, nuevos criterios, nuevos lenguajes,…, en definitiva, un nuevo paradigma, que cambia por completo el mundo tal y como se veía antes. Esto quiere decir que las teorías del anterior paradigma, antes consideradas como verdaderas, dejan de serlo. No es posible, entonces, que una teoría sea “definitivamente verificada”.

Imre Lakatos desarrolló el falsacionismo sofisticado, en el que la base de la ciencia no son las teorías, sino los denominados programas de investigación científica, formados por un núcleo firme de hipótesis que en ese programa se consideran irrefutables, y un cinturón protector formado por otras hipótesis que se van añadiendo o eliminando según se desarrolla la investigación. Entonces, el hecho de que un experimento refute una teoría no significa instantáneamente que la teoría sea falsa, sino que se acepta la posibilidad de que lo erróneo sea una o más de las hipótesis del cinturón protector. El programa de investigación puede continuar haciendo modificaciones en dicho cinturón protector. La ciencia progresa mediante el desarrollo de algunos programas de investigación y mediante la sustitución de otros. La norma general consiste en desarrollar los programas progresivos (los que generan muchas predicciones correctas) y en reconocer cuándo un programa se ha vuelto degenerativo (su cinturón protector sufre modificaciones constantemente para adaptarse a los hallazgos empíricos de otros programas rivales) para decidir si lo más conveniente es eliminarlo. De nuevo tenemos que un nuevo o mejor programa de investigación puede sustituir a otro anterior, por lo que las teorías del programa eliminado ya no se consideran válidas. Este es otro ejemplo de argumento en contra de la existencia de teorías “definitivamente verificadas”.

Existen otras corrientes filosóficas que aspiran a dar respuesta a la pregunta de si el objetivo último de la ciencia es describir el mundo objetivamente tal y como es (lo que se denomina realismo científico). Para los instrumentalistas, la finalidad de la ciencia es producir teorías que resulten útiles como herramientas de predicción de los diferentes fenómenos de la naturaleza, aunque no existe ninguna garantía de que esas teorías sean objetivamente verdaderas. Visto desde este punto, nunca se podría considerar que una teoría sea definitivamente cierta, ya que puede que sólo sea “útil y cómoda” para los propósitos de la ciencia y no se corresponda con la realidad objetiva. Otras posturas aseguran que las teorías científicas no representan la realidad de manera objetiva ya que el entorno social y cultural que afecta a las investigaciones y a los investigadores no permite esa objetividad.

En mi opinión, de todos estos argumentos no se concluye que la ciencia se iguale en términos de validez a otras creencias culturales como la religión o las supersticiones. Lo que sí se puede concluir es que la propia forma en que la ciencia progresa hace que ésta sea cambiante. El periodo histórico y los conocimientos disponibles en ese momento marcan la ciencia que se está desarrollando. Es plausible que nuevos hallazgos puedan modificar o refutar teorías que antes parecían completamente válidas. Las nuevas teorías serán capaces de explicar fenómenos que sus predecesoras no podían, entre otras cosas porque, quizás, esos fenómenos ni siquiera se conocían en el momento en que las teorías refutadas fueron propuestas.

El agua… esa gran desconocida

Es imprescindible para la vida. La consumimos y utilizamos  cada día, pero ¿qué sabemos de ella?  He aquí una pequeña presentación de la estructura y características del agua.

Características fundamentales de la estructura del agua

Estructura del agua

Estructura del agua

La molécula de agua está formada por dos átomos de hidrógeno y uno de oxígeno (H2O). Cado uno de los átomos de hidrógeno está unido al de oxígeno mediante un enlace químico covalente, lo que quiere decir que los electrones que forman el enlace son compartidos por ambos átomos. Además, el enlace es polar porque el oxígeno es más electronegativo que el hidrógeno y atrae con más fuerza a los electrones de los enlaces. Esto provoca que la molécula, aunque tenga una carga total neutra (igual número de protones que de electrones), presente una asimetría en la distribución de las cargas: en torno al  átomo de oxígeno se concentra una carga negativa, mientras que los núcleos de hidrógeno quedan desprovistos parcialmente de sus electrones y manifiestan una densidad de carga positiva.

Los dos enlaces forman un ángulo determinado, de 104,5º, lo que le da a la molécula una forma triangular en la que el extremo formado por el oxígeno se encuentra cargado negativamente y el opuesto, el de los hidrógenos, está cargado positivamente. Por ello, en la práctica, la molécula de agua se comporta como un dipolo (un sistema de dos cargas de signo opuesto e igual magnitud cercanas entre sí). Entre las moléculas de agua se producen interacciones dipolo-dipolo y se forman enlaces o puentes de hidrógeno: un átomo de hidrógeno enlazado a un átomo muy electronegativo es capaz de formar un enlace débil con otro átomo electronegativo que tenga un par de electrones no compartidos. En el caso de la molécula de agua, la carga negativa del oxígeno ejerce una atracción sobre la carga parcial positiva de los átomos de hidrógeno y se establece un vínculo entre ellos. Comparadas con los enlaces covalentes, los puentes de hidrógeno son uniones débiles, pero hacen posible la formación de agua, líquida o sólida.

Propiedades físicas y químicas del agua

El agua químicamente pura es un líquido inodoro, insípido, transparente y casi totalmente incoloro, ya que solamente toma una leve tonalidad azul cuando se encuentra en grandes cantidades.

La gran cantidad de puentes de hidrógeno que enlazan las moléculas de agua dan estabilidad y cohesión a la estructura y confieren unas propiedades físicas poco comunes si las comparamos con otras sustancias similares:

  • Punto de ebullición: 100Cº
  • Punto de congelación: 0ºC
  • Densidad: 1g./ml.
  • Temperatura crítica (temperatura límite a la cual un gas no puede ser licuado por compresión): 374ºC
  • Presión crítica (presión de vapor de un líquido a temperatura crítica): 217,7 atm.
  • Calor específico (capacidad de un material para almacenar energía interna en forma de calor.): 1 cal./g.ºC.
  • Calor de vaporización (cantidad de calor que se debe agregar a un gramo de líquido para que pase al estado de vapor a temperatura constante, en su temperatura de ebullición): 539,5 cal/g. a 100ºC.

Respecto a las propiedades químicas del agua, se debe resaltar su capacidad para formar puentes de hidrógeno (cada molécula puede formar cuatro) lo que determina buena parte de sus propiedades como sus altos puntos de fusión y ebullición, su capacidad de solubilización de moléculas con grupos polares y su participación en los mecanismos de muchas reacciones hidrolíticas.

El agua tiene un valor de pH bastante neutro: oscila entre 6,5 y 8,7 en agua dulce y entre 8 y 8,3 en agua salada). Es capaz de reaccionar con óxidos ácidos, óxidos básicos, metales,  no metales, sales,… y actúa como catalizador en muchas reacciones químicas.

Calculadora de René Grillet de Roven

La calculadora de René Grillet de Roven ha sido protagonista en los medios de comunicación en los últimos días ya que la  casa Christie’s de Londres va a subastar un ejemplar el próximo 10 de octubre.

Se trata de una calculadora del siglo XVIII, construida en 1673 para Luis XIV de Francia, el rey Sol,  por René Grillet de Roven, un mecánico de París.

A día de hoy solo se conservan en todo el mundo cuatro ejemplares de la calculadora de Grillet. Dos de ellos se encuentran en el Museo de las Artes y los Oficios de París y el otro en las colecciones de la sede de IBM en Nueva York. Por todo ello, se estima que esta calculadora pionera alcance un precio de venta de entre 80.000 y 116.000 euros!

Y ahora algunas curiosidades históricas sobre este aparato:

En 1673 el mecánico relojero parisino René Grillet de Roven, publicó un pequeño libro titulado Curiosités mathematiques de l’invention du Sr Grillet horloger a Paris (Curiosidades matemáticas de la invención del relojero Sr. Grillet de París) en la que informaba a los lectores acerca de un dispositivo de cálculo simple creado por él.

Cinco años más tarde, en 1678 , en Le Journal des Sçavans, la primera revista científica publicada en Europa, apareció una breve descripción del dispositivo, denominado “Nouvelle machine d’ arithmétique“.

René Grillet quería mantener los detalles del diseño de su máquina en secreto, por lo que ofrece muy pocos detalles de su funcionamiento. En el artículo se explica que la máquina realiza operaciones aritméticas (como sumas, restas, multiplicaciones y divisiones) a través de un sistema de cilindros giratorios y en base a las tablas logarítmicas de Napier. También menciona que Pascal había inventado una máquina admirable para hacer aritmética (la Pascalina) , y que el físico francés Pierre Petit había desarrollado en la década de 1650 una especie de ábaco neperiano grabado en un cilindro (cylindre artihmetique). Así, Grillet informa que su dispositivo combina las ruedas de Pascal con el cilindro de Petit , con el fin de proporcionar una máquina totalmente novedosa, que realiza todo tipo de operaciones aritméticas.

En la foto superior puede verse la caja con 24 juegos de ruedas ( 3 filas por 8 ruedas) en la tapa. Cada rueda se compone de varios círculos concéntricos. La parte inferior de la caja contiene el ábaco neperiano, grabado en cilindros. Quizás uno de los aspectos más avanzados de la máquina de Grillet fue su tamaño, ya que era lo suficientemente pequeña como para ser llevada en un bolso. Sus dimensiones son: 14,5 x 32,5 x 5 cm y pesa casi un kilo, en concreto, 990 g. Está fabricada principalmente con madera, papel y metal.

Seguramente la razón por la que René Grillet trataba de mantener en secreto la estructura interna y los detalles del funcionamiento de su calculadora es que quisiera hacer algún tipo de negocio con ella. De hecho, se sabe que ya en la década de 1670 la exponía en ferias y mercados franceses. En 1673 la calculadora de Grillet se expuso en París, en Quai de l’Horloge, nº49. Ocho años más tarde, en 1681, la máquina se expuso en Amsterdam. Algunas informaciones apuntan incluso a que Grillet intentó fabricar en serie su máquina y venderla, pero sin gran éxito comercial.

¿Qué es y cómo nos afecta la radiación?

radiacion

La radiación es la propagación de energía en forma de ondas electromagnéticas o partículas. A finales del siglo XIX, Henri Becquerel descubrió que algunos cuerpos, como el uranio, emitían radiaciones espontáneamente. A este fenómeno se le conoce como radiactividad natural.  Con el tiempo se descubrió que estas emisiones eran el resultado de la desintegración de átomos inestables, cuyos núcleos se dividen liberando energía.

Existen dos tipos de radiaciones:

  • Las radiaciones ionizantes tienen energía suficiente para romper las moléculas en las que inciden. Ejemplos de este tipo de radiación son las partículas alfa, beta, rayos gamma y rayos X.
  • Las radiaciones no ionizantes tienen menos energía y no son capaces de romper los enlaces atómicos. Son radiaciones no ionizantes las microondas, las ondas de radio, los infrarrojos

LOS EFECTOS DE LA EXPOSICIÓN A LA RADIACIÓN

En la medida en que la radiactividad es un fenómeno natural, todos los seres vivos estamos expuestos a una cierta dosis de radiación, ya sea procedente del espacio, de los alimentos que ingerimos o de los materiales que forman el suelo. En Galicia, por ejemplo, la acumulación de radón, un gas radiactivo procedente de la desintegración del uranio, constituye un problema en los sótanos sin ventilación.

Se llama envenenamiento por radiación a la exposición a altas dosis de radiación ionizante. No todas las radiaciones tienen la misma nocividad, por lo que es necesario multiplicar la radiación absorbida por el organismo por un coeficiente de ponderación determinado, para tener en cuenta las diferencias. Esta medida se conoce como dosis equivalente y se mide en sieverts.

Los efectos de la radiactividad sobre la salud son complejos. La gravedad de los daños depende del tipo de radiación, de la intensidad de la dosis y del tiempo que se prolongue la exposición. Además, también influye el tipo de tejido afectado y su capacidad de absorción ya que, por ejemplo, los órganos reproductores son 20 veces más sensibles que la piel. Por tanto, los síntomas del envenenamiento por radiación son múltiples: desde quemaduras en la piel, pérdida de pelo, desmayos, vómitos, fatiga, etc. hasta alteraciones genéticas, el cáncer o la muerte.

Alteraciones como estas son las que sufrieron las víctimas del accidente nuclear de Chernóbil (Ucrania), el más grave de la historia. Ocurrió el 26 de abril de 1986, durante una prueba en la que se simulaba el corte del suministro eléctrico. Fue entonces cuando se produjo un inesperado sobrecalentamiento del núcleo del reactor que finalmente provocó la explosión del hidrógeno contenido en su interior. Las consecuencias que la enorme cantidad de radiación emitida en la explosión tuvo sobre las personas y todo el entorno natural fueron enormes, y aún hoy se sufren sus efectos. Este es el único accidente que se ha clasificado en el nivel máximo (7) de la escala INES, una escala que mide la gravedad de los accidentes nucleares.

Afortunadamente, las probabilidades de que algo así vuelva a ocurrir son extraordinariamente bajas. Hoy en día, la energía nuclear ya es una tecnología madura y ofrece unas buenas garantías de seguridad.