Investigaciones sobre contenido genético de gemelos en busca de encontrar prevalencia de enfermedades.

El avance que la humanidad presenta en el tema de la obtención de la información sobre las más variadas materias, y su manejo está en franca evolución positiva. El problema generalizado hace unas cuantas décadas, como en el resto de la historia de las distintas culturas, era la falta de información fidedigna y con posibilidades de ser analizada, en otra palabras que tuviera calidad y credibilidad.

Imagino que la primera señal de una actitud de conocimiento entre los antiguos homínidos, fue el de percatarse que se tomaban mejores decisiones, sobre los asuntos cotidianos, cuando de alguna forma se había medido el número de cosas implicadas al elegir que acciones eran mejores. Contar es entonces, un sinónimo de exactitud, y eso sucedió en épocas muy antiguas, con el paso del tiempo aquello se fue refinando, se avanzó en la manera de contar y después, a calcular detalles que se desprendían de lo sucedido anteriormente y en una época posterior hacer predicciones numéricas, es decir pronósticos.


Estadística, ciencia que utiliza conjuntos de datos numéricos para obtener, a partir de ellos, inferencias basadas en el cálculo de probabilidades. Tomada de Sao. org.

Se denominó estadística, en épocas recientes, a la actividad para establecer la recopilación e interpretación de los datos obtenidos en un estudio, es considerada como una rama de la matemáticaLa palabra deriva del del latín "statisticum collegium", esto es "Consejo de Estado” y de su derivado italiano statista (hombre de Estado o político). En 1749, el filósofo, historiador, ecónomo y estadístico Gottfried Achenwall (1719 – 1772), comenzó a utilizar la palabra alemana statistik para designar el análisis de datos estatales. Por lo tanto, los orígenes de la estadística estarían relacionados con el gobierno y sus cuerpos administrativos, lo que históricamente está corroborado.

También se le llamó aritmética política, no fue hasta el siglo Diecinueve cuando el término estadística adquirió su significado: recolectar y clasificar datos. Este concepto fue introducido por el agrónomo y estadista John Sinclair (1754-1835). Las estadísticas, son el resultado de la aplicación de un algoritmo estadístico a un grupo de datos, permiten la toma de decisiones dentro del ámbito gubernamental, pero también en el mundo de los negocios y el comercio. 

Esta historia encuentra una de sus raíces en la región de Mesopotamiaubicada en los territorios inscritos entre los ríos Tigris y Eufrates, para mayor exactitud en la zona llamada Sumeria, cuna de las primeras ciudades e imperios, adonde hace alrededor del cinco mil, en la antigua ciudad de Uruk se encontraron tablillas de arcilla con muescas que demuestran la existencia de una contabilidad, la más antigua documentada, lo cual puede interpretarse como un paso previo a la elaboración de la escritura. En su apogeo, hacia el principio del tercer milenio antes de nuestra era, Uruk tenía una zona amurallada que protegía un terreno de unos seis y medio kilómetros cuadrados, estimándose que su población ascendía entre cincuenta mil y ochenta mil  habitantes, siendo por lo tanto la mayor ciudad del mundo en esa época, se evidenció que se tomaron medidas sobre la población, y sobre todo de sus actividades comerciales, fueron los encargados del gobierno que buscaban saber sobre el número de vasallos, de contribuyentes, que podían incrementar sus arcas.




Mapa que muestra la situación de las ciudades de la antigua Mesopotamia. Uruk se encuentra en el sur. Trabajo propio de Cuates, fundamentado en la obra de John D. Croft

La estadística estuvo asociada a los Imperios, reinados, Estados o Ciudades Libres, para ser utilizados por el gobierno y cuerpos administrativos. La colección de datos acerca de estados y localidades continúa ampliamente a través de los servicios de estadística nacionales e internacionales. En particular, los censos comenzaron a suministrar información regular acerca de la población de cada territorio. Así pues, los datos estadísticos se referían originalmente a los datos demográficos de una ciudad o Estado determinados. Babilonios, egipcios, chinos, estuvieron desde la antigüedad practicando el ejercicio de lo que hoy conocemos como demografía. Sabemos que en el tiempo de la Civilización Romana ( siglo VIII a. C. al siglo V d. C.) , fueron establecidos como práctica sistemática la evaluación de la población, utilizando lo que hoy conocemos como "censos".

Los métodos estadístico-matemáticos emergieron desde la Teoría de Probabilidad, la cual data desde la correspondencia realizada en el año 1654, entre Blaise Pascal (1623 - 1662) y Pierre de Fermat (1601 - 1665). Posteriormente Christian Huygens (1629 - 1695) en el año de 1657, da el primer tratamiento científico que se conoce a la materia. Tanto en la "Doctrina de posibilidades" publicada en 1718, obra de Abraham de Moivre (1667 - 1724) y conjuntamente con Jakob Bernoulli (1665 - 1705), quien en su obra "El Ars Coniectandi", publicada en forma póstuma, en el año de 1713, los tratamientos estadísticos se formalizaron como una rama de las matemáticas.

Pierre Simon Laplace (1749 - 1827), en 1774 realiza el primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de probabilidades, y es quien también  representó la "Ley de Probabilidades de Errores" mediante una curva, método que nos ha permitido avanzar prontamente en la compresión individual de estos asuntos, conjuntamente con las gráficas de resultados; y dedujo una fórmula para la media de tres observaciones. También, en 1871, obtiene la fórmula para la "Ley de Facilidad del Error", término que fue introducido por Giuseppe Lodovico Lagrangia, mejor conocido como Joseph Louis Lagrange (1736 - 1813), pero utilizando unas ecuaciones inmanejables. Es Daniel Bernoulli (1700 - 1782) en el año 1778, quien introduce el principio del máximo producto de las probabilidades de un sistema de errores concurrentes. Fue el siglo XIX un lapso en que participaron muchos pioneros destacados, enriqueciendo la teoría, y en el siglo XX se modernizan los contenidos y sobre todo la manera de apreciar la práctica, haciendo de ella una disciplina matemática rigurosa usada por análisis, no solamente en la ciencia sino en la manufactura y la política.

Lambert Adolphe Jacques Quetelet (1796 - 1874), presidente del Primer Congreso Internacional de Estadística, que se llevó a cabo en Bruselas en el año 1853,  aplicó métodos a conjuntos y es reconocido como uno de los padres de la Estadística Moderna. Aplicó el método estadístico a los estudios de la Sociología, por lo que fue criticado, la aplicación de los métodos estadísticos a las Ciencias Sociales, incluida la Criminología no fueron aceptados en un inicio. Fue el creador del índice de masa corporal, con el que hasta hoy día, se evalúa la obesidad.


El "Muestreo", el arte de buscar y encontrar en una porción de la población a estudiar, con cierta certeza conocer un dato general de la población total sin necesidad de realizar un censo. Tomada de Fullframe Photomkt. com.

Uno de los impulsores de esa modernidad fue sin duda Francis Galton (1822 - 1911), quién aplicó sus principios a numerosos campos, principalmente al estudio del ser humano y a las diferencias individuales; entre estos principios se destacan, la creación del concepto estadístico de correlación y regresión hacia la media, altamente promovido; dado que encontró que en el núcleo de cualquier análisis estadístico el concepto de que aunque las mediciones pueden variar, tienen una tendencia central. A finales de 1860,  concibió una medida para cuantificar la "Variación Normal" y la "Desviación Estándar", también descubrió las propiedades de la "Distribución Estándar" de la "Doble Variación" y su relación con el Análisis de Regresión, fue pionero en el uso de la "Distribución Normal", así como la aplicación de métodos estadísticos para el estudio de las diferencias humanas y la herencia de la inteligencia, introdujo el uso de cuestionarios y encuestas para recoger datos sobre las comunidades humanas, que utilizó en sus trabajos genealógicos y biográficos y para los estudios antropométricos, todo ello en vigencia. Y como iniciador de la Ciencia Meteorológica, ideó el primer mapa del tiempo, propuso una teoría de los anticiclones y fue el primero en establecer un registro completo de los fenómenos climáticos a corto plazo a escala europea.

Otro impulsor de la Estadística Moderna fue Karl Pearson (1857 - 1936), estableció la disciplina de la "Estadística Matemática" y desarrolló una intensa investigación sobre la aplicación de los métodos estadísticos en la Biología y fue el fundador de la "Bioestadística". Esto significa que la estadística se convierte en una ciencia formal deductiva, con un conocimiento propio, dinámico y en continuo desarrollo obtenido a través del método científico formal. En ocasiones, las Ciencias en sus aplicaciones, necesitan utilizar técnicas estadísticas durante su proceso de investigación factual, con el fin de obtener nuevos conocimientos basados en la experimentación y en la observación. En estos casos, la aplicación de la estadística permite el análisis datos provenientes de una muestra representativa, entrando al campo del "muestreo", que busca explicar las correlaciones y dependencias de un fenómeno físico o natural, de ocurrencia en forma aleatoria o condicional.

De entonces para nuestros días han sido muchos los científicos y matemáticos, los encargados de profundizar las teorías y las aplicaciones de la Estadística, en todas las actividades humanas, y desde muy distintos puntos de vista. Es la aplicación inferencial la que implica mayor atención en nuestros días.

El incremento rápido y sostenido en el poder de cálculo de la computación desde la segunda mitad del siglo Veinte ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los "Modelos Lineales". Ahora, complejos computadores junto con apropiados algoritmos numéricos han causado un renacer del interés en los "Modelos No Lineales", especialmente en las "Redes Neuronales" y "Árboles de Decisión", y la creación de nuevos tipos tales como los "Modelos Lineales Generalizados" y los "Modelos Multinivel".

El termino "Redes Neuronales" consiste en un conjunto de unidades, llamadas "neuronas artificiales", conectadas entre sí para transmitirse señales. La información de entrada atraviesa la red neuronal, donde se somete a diversas operaciones, produciendo unos valores de salida. El objetivo de la "Red Neuronal" es resolver los problemas de la misma manera que el cerebro humano, aunque las redes neuronales son más abstractas. Las redes neuronales actuales suelen contener desde unos miles a unos pocos millones de unidades neuronales.


Diagrama de un "Árbol de Decisión". Tomado de Sociedad Argentina de Cardiología, sac. org. ar.

Un "Árbol de Decisión" es un modelo de predicción utilizado en diversos ámbitos, dado un conjunto de datos se fabrican diagramas de construcciones lógicas, muy similares a los sistemas de predicción basados en reglas, que sirven para representar y categorizar una serie de condiciones que ocurren de forma sucesiva, para la resolución de un problema.

El "Modelo Lineal Generalizado" (GLM) es una generalización flexible de la "Regresión Lineal" ordinaria que permite variables de respuesta que tienen modelos de distribución de errores distintos de una "Distribución Normal". El (GLM) generaliza la regresión lineal al permitir que el "Modelo Lineal" esté relacionado con la variable de respuesta a través de una función de enlace y al permitir que la magnitud de la "Varianza" de cada medición sea una función de su valor predicho.

Los "Modelos Multinivel" también conocidos con el nombre de "Modelos Lineales Jerárquicos" o "Modelos Mixtos Lineales Generalizados", o "Modelos Anidados", o "Modelos Mixtos", o "Coeficiente Aleatorio", o "Modelo de Efectos Aleatorios"; son modelos estadísticos de parámetros que varían en más de un nivel. Estos modelos pueden ser vistos como generalizaciones de "Modelos Lineales", aunque también pueden extenderse a los "Modelos No Lineales", y si bien, no son nuevos, se han hecho más populares con el crecimiento del poder computacional y la disponibilidad de software especialmente diseñado.

El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en el "Remuestreo", tales como las pruebas de "Permutación", "Jackknifing" y de "Bootstrapping", mientras técnicas como el "Muestreo de Gibbs" han hecho los "Métodos Bayesianos" más accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas «Experimentales» y «Empíricas». Un gran número de "Paquetes Computacionales Estadísticos" (softwareestá ahora disponible para los investigadores.

El "Remuestreoes un método estadístico para estimar la distribución muestral de un estimador mediante el muestreo con reemplazo de la muestra original, la mayoría de las veces con el propósito de obtener estimaciones robustas de los errores estándar e intervalos de confianza de un parámetro de la población como pueden ser una media, una mediana, una proporción, una razón de momios, un coeficiente de correlación, o un coeficiente de regresión.


Ilustración del "Homo Bayesiano". Tomada de Departamento Estadistica. Halweb. uc3m. es.

El "Muestreo de Gibbs" es un algoritmo para generar una muestra aleatoria a partir de la "Distribución de Probabilidad" conjunta de dos o más "Variables Aleatorias".

Los "Métodos Bayesianos", se caracterizan por los siguientes conceptos y procedimientos: El uso de variables aleatorias, o, más en general, de cantidades desconocidas,​ para modelar todas las fuentes de incertidumbre en los modelos estadísticos. Esto también incluye la incertidumbre derivada de la falta de información. 
La necesidad de determinar la "distribución de probabilidad" previa, teniendo en cuenta la información disponible (antes).
El uso secuencial del "Teorema de Bayes": cuando se disponga de más datos, calcular la distribución posterior utilizando la fórmula Bayes; posteriormente, la distribución posterior se convierte en el siguiente antes.
Para el frecuentista una hipótesis es una proposición, la que debe ser verdadera o falsa, por lo que la probabilidad frecuentista de una hipótesis es "uno" o "cero". En la estadística bayesiana, una probabilidad asignada a una hipótesis puede diferir de 0 o 1 si el "valor de verdad"  es incierto. En "Lógica", un valor de verdad es un valor que indica en qué medida una declaración es verdad.

En términos generales, hay dos interpretaciones sobre la probabilidad bayesiana. La de las variantes objetivas y la de las subjetivas, estas difieren principalmente en su interpretación y construcción de la probabilidad previa.

La interpretación bayesiana de la probabilidad puede ser vista como una extensión de la Lógica Proposicional, que permite razonar con hipótesis, es decir, las proposiciones cuya veracidad o falsedad son inciertas. La incertidumbre y la imprecisión son connaturales en el proceso de razonamientoLa lógica establece unas reglas de inferencia a partir de las cuales se construye el sistema de razonamiento deductivo, en el que una proposición determinada es considerada como cierta o falsa, es decir, creando un sistema de dos únicos estados posibles, sin que se admitan grados entre estos dos extremos, aquí si es claro que solamente pueden ser: blancos o negros, o uno o cero o positivo o negativo, o vivo o muerto. 

Los métodos de razonamiento aproximado, entre los que se encuentran los métodos bayesianos, aportan modelos teóricos que simulan la capacidad de razonamiento en condiciones de incertidumbre, cuando no se conoce con absoluta certeza lo verdadero o lo falso de un enunciado o hipótesis; e imprecisión, en los enunciados en los que se admite un rango de variación.

La inferencia bayesiana es un tipo de "Inferencia Estadística" en la que las evidencias u observaciones se emplean para actualizar o inferir la probabilidad de que una hipotesis pueda ser cierta. El nombre «bayesiana» proviene del uso frecuente que se hace del "Teorema de Bayes", durante el proceso de inferencia. El teorema de Bayes se ha derivado del trabajo realizado por el matemático Thomas Bayes (1702 - 1761). Hoy en día, uno de los campos de aplicación es en la "Teoría de Decisión", "Visión Artificial (simulación de la percepción en general), y "Reconocimiento de Patrones por Computadora".

El "Teorema de Bayes", maneja la probabilidad condicional, esto se define, que es la probabilidad de que ocurra un evento (A), sabiendo que también sucede otro evento (B). La notación matemática con la que la probabilidad condicional se escribe es: P(A|B) o P(A/B), y se lee «la probabilidad de A dado B».

Su formula busca la respuesta al evento que expresa la "probabilidad condicional"  de un evento aleatorio  (A) dado (B) en términos de la distribución de probabilidad condicional del evento (B) dado (A) y la "distribución de probabilidad marginal" de sólo (A). De ahí se desprende la Fórmula de Bayes, y dejo a la intención del lector que si la quiere conocer consulte cualquier libro o página sobre el tema, para no incluir más notación matemática, que resulta muy formal.

Pero, si sólo lo platicamos, podemos revisar este ejemplo: que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza. Muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.

Y esta gama de razonamientos nos lleva hoy en día a tener resultados en las ciencias y muchas actividades humanas, cito dos ejemplos:

Estudio genético de gemelos revela pistas sobre prevalencia de enfermedades.


Científica de la UNAM. Foto tomada del sitio de https://www.dgcs.unam.mx / Archivo

Un grupo de científicos de la Universidad Nacional Autónoma de México (UNAM) está llevando a cabo un estudio para registrar a las personas que participaron en nacimientos múltiples (como gemelos, trillizos o cuatrillizos), ya que por medio de ellas pueden analizarse las características genéticas de la población mexicana en general y la incidencia que tiene de diversas enfermedades. Es una muestra, que reúne ciertas características desde el punto de vista genético.

En entrevista con el diario La Jornada, los doctores Alejandra Ruiz Contreras y Sarael Alcauter Solórzano, de la Facultad de Sicología  de la UNAM, y del Instituto de Neurobiología (INB) también de la máxima casa de estudios del país, respectivamente, explicaron que el Registro Mexicano de Gemelos es una iniciativa reciente, surgida en el año 2019, con apoyo de la Asociación de Nacimientos Múltiples, mediante la cual se busca recolectar la mayor cantidad de información posible sobre quienes nacieron en un mismo parto.

Señalaron que los llamados gemelos pueden ser:
monocigotos o “idénticos”, es decir, que comparten prácticamente el cien por ciento de su material genético; o
dicigotos,llamados coloquialmente en México “cuates”, y que sólo lo comparten la mitad del material genético, como cualquier par de hermanos, pero con la particularidad de que nacieron durante el mismo evento.

Representan tan sólo el uno por ciento de los nacimientos en México, pero al recabar datos sobre estas personas, es posible estudiar el peso que tienen los factores tanto genéticos como ambientales en su formación, y si alguno de estos ámbitos es más importante para la aparición de ciertas características o fenotipos, como la estatura, la talla o el color de los ojos, por ejemplo.

La doctora Ruiz enfatizó que el propósito del registro no es estudiar únicamente a los gemelos por sí mismos, “sino más bien tener un modelo que nos permita conocer información de diferentes rasgos de toda la población, como su salud física, salud mental y cognición”.

De esta manera, se pueden obtener datos sobre la prevalencia y características de diversas enfermedades en la población mexicana, como sobrepeso, diabetes, hipertensión o Parkinson, entre otras, considerando la mezcla genética particular y el ambiente en que se desenvuelven las personas en el país, en vez de “importar” datos de otras naciones.

Los doctores Alcauter y Ruiz declararon que en nuestro país, existe una considerable sub representación en estudios genéticos de la población local o de origen latino, lo que significa únicamente 1.3 por ciento de las muestras disponibles, pues la gran mayoría de los análisis se han hecho en poblaciones de origen europeo.

El levantamiento de datos se realiza con una serie de cuestionarios que los participantes pueden responder en línea, con preguntas sobre temas de salud física, estatus socioeconómico y salud mental, además de una evaluación cognitiva. A quienes deseen hacerlo, también se les pueden practicar estudios de resonancia magnética funcional para conocer su funcionamiento cerebral, en el INB de la UNAM, ubicado en Juriquilla, Querétaro. Los datos se analizan de forma anónima y sólo se guardan en servidores de la universidad.

Los interesados pueden consultar TwinsMXofficial en Twitter, Facebook e Instagram, así como el portal.

Credit Suisse que es una firma de servicios financieros, informa que en México, está la mayor cifra de "ultrarricos" en América Latina:.


Vista panoramica de la Plaza del Zócalo, con perspectiva la nororiente de la Ciudad de México. Tomada de Credit Suisse. com.

Entre las tres principales economías de América Latina, la de México fue la que más cayó en el primer año de la pandemia de coronavirus. A diferencia de Brasil y Chile no logró recuperarse en 2021, y pese a ello cuenta con el mayor número de ultrarricos de la región: 258 mil mexicanos se encuentran entre el uno por ciento de la población mundial con más capital acumulado, exhibe Credit Suisse.

A su vez, el uno por ciento de la población con mayores recursos en México concentra 30.2% de la riqueza total del país, lo cual refleja una disminución respecto a 42.6% registrado a inicios de siglo, se detalla en el informe. Esto refleja una mayor distribución del ingreso entre los sectores con recursos medios, mientras la gente que se encontraba al fondo del reparto ahora es más pobre en relación con el resto de la población.

El estudio muestra mayor detalle: "Al igual que en Chile, en México la desigualdad de la riqueza ha aumentado entre la mitad de la población con menores recursos. En promedio para los dos países, la cuota de riqueza de 40% más pobre de adultos cayó de 1.8 por ciento a -0.2 por ciento, mientras que el reparto para quienes se encuentran entre 40 y 90 subió de 27.2 por ciento a 33.3 por ciento".

En su informe sobre la riqueza mundial, esta firma de servicios financieros, refiere que por encima de Brasil, que cuenta con 216 mil habitantes entre el uno por ciento de la población mundial con más riqueza, y Chile que tiene a 54 mil en ese grupo, México, con 258 mil, es la economía con una mayor proporción de multimillonarios entre las principales de América Latina.

No obstante, estas cifras están atadas a poblaciones de diferente tamaño. Como resultado, México es la segunda economía más desigual de entre las principales de América Latina, después de Brasil, que cuenta con un número menor de ultra ricos para un país con una población 64.1 por ciento más grande que la mexicana.

El informe detalla que al final de 2021 la riqueza por adulto fue 21 mil 429 en Brasil, de 48 mil 138 en México y de 54 mil 639 en Chile. Estos datos reflejan un incremento promedio anual de 5.8, 5.7 y 4.4 por ciento, respectivamente, en lo que va del siglo, pero no necesariamente su reparto.


Fotografía de Oficinas de la firma de Servicios Financieros. Tomada de Gestion. pe.

Credit Suisse también reportó que en 2021 la riqueza mundial creció “a un fuerte ritmo". Alcanzó 463.6 billones de dólares, un aumento de 9.8 por ciento. Sin igualar el tipo de cambio, el avance fue de 12.7 por ciento, el incremento más alto desde que se realiza el reporte.

"Sin embargo, factores como la inflación, el incremento en las tasas de interés y la tendencia a la baja de los precios de los activos podrían revertir en 2022 el impresionante crecimiento del año pasado", advirtió la firma.

El avance es notable en los diversos rubros de la actividad humana, permite conocer datos sobre situaciones en las que no es necesario realizar censos, para accede a la información de todos y cada uno de los miembros de la población.

Quedamos en espera de los avances que se obtengan en la conformación de resultados importantes, en economía, medicina, biología, demografía, etcétera.

Dimos en esta entrega de la Machincuepa Cuántica un rápido recorrido sobre el avance y evolución de la Matemática, en este caso particular sobre la Estadística, conociendo un poco de su historia y sus aplicaciones actuales.

Comentarios