Google retira consultas médicas de sus resúmenes con IA tras cuestionamientos sobre precisión
Tras una investigación que reveló información médica inexacta, el gigante de las búsquedas ha decidido eliminar ciertos resúmenes generados por inteligencia artificial relacionados con temas de salud.
Se trata de un movimiento que pone sobre la mesa, una vez más, los desafíos que enfrentan las grandes tecnológicas al implementar sistemas de IA en servicios masivos.

El problema con los resúmenes automatizados
Los AI Overviews, como se conocen en inglés, son resúmenes generados mediante inteligencia artificial que aparecen en la parte superior de los resultados de búsqueda de Google.
Estos fragmentos tienen como objetivo proporcionar respuestas rápidas a las consultas de los usuarios sin necesidad de acceder a múltiples sitios web.
Sin embargo, una investigación realizada por el periódico The Guardian descubrió que algunos de estos resúmenes contenían datos médicos imprecisos que podrían representar riesgos para la salud de las personas.
El análisis encontró que al realizar búsquedas sobre rangos normales en pruebas de función hepática, el sistema ofrecía grandes cantidades de números sin contexto adecuado.
Más preocupante aún, las respuestas no consideraban variaciones importantes basadas en factores como nacionalidad, sexo, etnia o edad del paciente.

Diferencias entre fragmentos destacados y resúmenes de IA
Cabe destacar que existe una diferencia fundamental entre los «featured snippets» tradicionales y los AI Overviews. Los primeros son párrafos extraídos directamente de sitios web relevantes, mientras que los segundos son generados completamente por inteligencia artificial.
La investigación reveló que variaciones en las consultas, como «rango de referencia de pruebas de función hepática» o similares, seguían generando resúmenes automáticos con las mismas deficiencias de contexto.
Otro caso particularmente preocupante mencionado en el reporte fue el de recomendaciones para pacientes con cáncer de páncreas.
Según expertos consultados por el medio británico, Google habría sugerido evitar alimentos altos en grasa, una recomendación que podría incrementar el riesgo de mortalidad en estos pacientes, contradiciendo las mejores prácticas médicas establecidas.

El fenómeno de las alucinaciones en IA
Este incidente se suma a las crecientes preocupaciones de expertos sobre las «alucinaciones» de los chatbots de inteligencia artificial, término que describe cuando estos sistemas inventan respuestas falsas al no contar con información correcta.
A decir verdad, este comportamiento representa uno de los mayores desafíos técnicos y éticos en el desarrollo de sistemas de IA generativa, especialmente cuando se aplican a áreas sensibles como la salud.
Por otro lado, resulta interesante que este problema salga a la luz justo cuando Google anunciaba la expansión de Gemini a Gmail, su servicio de correo electrónico.
La nueva funcionalidad permitirá a los usuarios hacer preguntas sobre sus correos y recibir respuestas generadas por IA, en lugar de realizar búsquedas tradicionales por palabras clave.
Sin embargo, los cuestionamientos sobre precisión en temas médicos inevitablemente generan dudas sobre la confiabilidad del sistema en otros contextos.

Implicaciones para el futuro de la búsqueda con IA
Distintos medios han tratado de contactar a Google para confirmar si efectivamente había removido los AI Overviews de consultas relacionadas con salud, pero no había recibido respuesta oficial de la compañía.
Esta falta de comunicación inmediata contrasta con la urgencia que amerita un tema que involucra potencialmente la salud de millones de usuarios que confían en el buscador para obtener información médica.
Este episodio subraya la necesidad de establecer protocolos más rigurosos para la implementación de inteligencia artificial en servicios que manejan información crítica.
Si bien la tecnología promete revolucionar la manera en que accedemos al conocimiento, los fabricantes deben garantizar que la precisión y el contexto adecuado no se sacrifiquen en favor de la velocidad o la conveniencia.
Fuente: EuroNews



