“¿Si pudieras conocer la fecha de tu muerte, preferirías saberlo o continuar con la incertidumbre?”. Esta pregunta solía ser solo un juego, pero ahora, con el avance frenético de la inteligencia artificial (IA), se ha convertido en una posibilidad tangible. La tecnología ha demostrado ser capaz de predecir con sorprendente efectividad cuándo morirá una persona.
El proyecto Life2Vec
Sune Lehmann, físico y profesor de Redes y Ciencias de la Complejidad en la Universidad Técnica de Dinamarca, es el principal responsable de Life2Vec.
Este desarrollo ha generado preocupación debido a su potencial sombrío, ya que no solo predice muertes prematuras con un 78% de acierto, sino que también puede estimar eventos de vida como éxito profesional, formación de una familia o mudanzas.
Tecnología y grandes datos
Lehmann, quien también enseña Ciencias de Datos Sociales en la Universidad de Copenhague, explica que el proyecto surgió para comprender el papel de las conexiones sociales en los resultados de vida de las personas.
Utilizando una base de datos anonimizada de seis millones de daneses proporcionada por Statistics Denmark, el algoritmo de IA analiza secuencias de acontecimientos para predecir eventos de vida.
Resultados publicados y precisión
Los resultados del estudio, publicados en la revista Nature, muestran una precisión del 78% en la predicción de muertes y del 73% en mudanzas.
El algoritmo se alimenta de datos socioeconómicos y de salud, organizando eventos de vida en una secuencia lógica para crear modelos matemáticos denominados «transformadores».
Ética y uso de la IA
Lehmann destaca que su modelo es un proyecto de investigación sin aplicaciones comerciales inmediatas.
Sin embargo, reconoce la existencia de sesgos en el algoritmo y subraya la importancia de analizar y comprender estos sesgos. El debate sobre la ética en la inteligencia artificial se reaviva con desarrollos como Life2Vec, planteando preguntas sobre la transparencia y la justicia en el uso de la tecnología.
Opiniones de expertos
Simon Kolstoe, profesor de Bioética en la Universidad de Portsmouth, y David Weitzner, filósofo y profesor en la Universidad de York, coinciden en la necesidad de principios éticos y transparencia en el desarrollo de IA.
Weitzner aboga por la protección de derechos sobre los datos y O’Gorman, de la Universidad de Waterloo, sugiere auditorías externas para garantizar transparencia y responsabilidad pública.
Regulación y futuro de la IA
Dennis Hirsch, profesor de Derecho y Ciencias de la Computación en la Universidad Estatal de Ohio, advierte sobre los sesgos y las desigualdades perpetuadas por la IA.
Propone regulaciones que exijan evaluaciones de impacto y prácticas socialmente aceptables. La legislación actual no es suficiente para seguir el ritmo del rápido avance de la tecnología.
Con información de Infobae