El chatbot médico impulsado por inteligencia artificial de Google logró una calificación aprobatoria en un duro examen de licencia médica de EEUU pero sus respuestas aún están por debajo de las de los médicos humanos.
“Google presentó por primera vez su herramienta de inteligencia artificial para responder preguntas médicas, llamada Med-PaLM, en un estudio de preimpresión en diciembre. A diferencia de ChatGPT, no se ha lanzado al público”, explicó la nota publicada en los portales especializados en tecnologías.
El gigante tecnológico aseguró que Med-PaLM es el primer modelo de “lenguaje grande” -una técnica de IA entrenada en grandes cantidades de texto producido por humanos- en aprobar el Examen de Licencias Médicas de EEUU (USMLE).
En febrero de este año, un estudio aseguró que ChatGPT logró resultados aprobados o casi aprobados de esa misma prueba.
En un estudio publicado en la revista Nature, los investigadores de Google dijeron que Med-PaLM logró un 67,6 por ciento en preguntas de opción múltiple estilo USMLE. “Med-PaLM funciona de manera alentadora, pero sigue siendo inferior a los médicos”, dijo.
El Dr. Karan Singhal, investigador de Google y autor principal del nuevo estudio, dijo que el equipo usó el punto de referencia para probar una versión más actualizada de su modelo con resultados «súper emocionantes».
Med-PaLM 2 alcanzó el 86,5 por ciento en el examen USMLE, superó la versión anterior en casi un 20 por ciento, según un estudio preliminar publicado en mayo.
Singhal dijo que, en el futuro, Med-PaLM podría ayudar a los médicos a ofrecer alternativas que de otra manera no se habrían considerado.
The Wall Street Journal informó a principios de esta semana que Med-PaLM 2 ha estado en pruebas en el prestigioso hospital de investigación de la Clínica Mayo de EEUU desde abril.