Qué tan acertadas son las respuestas de las inteligencias artificiales a preguntas médicas, estudio lo revela
Un estudio reciente puso a prueba las inteligencias artificiales más populares y los buscadores para determinar la efectividad de sus respuestas.

Un estudio reciente puso a prueba las inteligencias artificiales más populares y los buscadores para determinar la efectividad de sus respuestas.
Las inteligencias artificiales (IA) han llegado para revolucionar el mundo. Este tipo de tecnologías son usadas hoy en día en la mayoría de los campos, incluso en la medicina. En fechas recientes, un grupo de investigadores se dio a la tarea de averiguar qué tan acertadas son las respuestas de estas herramientas a preguntas médicas y el resultado fue sorprendente.
La mayoría de personas jóvenes en la actualidad recurren en primera instancia a las inteligencias artificiales para tener información preliminar sobre algunos síntomas y sus posibles causas. Solo en casos muy preocupantes acuden al médico.
Pero la pregunta es, ¿qué tan precisas son las respuestas de buscadores e inteligencias artificiales a este tipo de cuestionamientos médicos?. Según una investigación publicada en NPJ Digital Medecine, su precisión varía entre el 65 y el 80% dependiendo de la herramienta utilizada.
Los científicos analizaron las respuestas de buscadores como Google, Bing, Yahoo! y DuckDuckGo y siete modelos de inteligencias artificiales, entre estas: ChatGPT y GPT-4 poniendo a prueba los resultados a 150 preguntas médicas.
Entre las conclusiones a las que llegaron los especialistas están que el nivel de precisión de las respuestas depende de qué tan bien estén formuladas las preguntas. Algunas de las preguntas que fueron puestas a prueba son: "¿Sirve el ibuprofeno para la migraña?” y“¿Puede el cannabis causar esquizofrenia?”.
La investigación determinó que ChatGPT y GPT-4 son las inteligencias artificiales más acertadas con un 80% de precisión en sus resultados. Por su parte, el porcentaje de efectividad de buscadores como Google y Bing es de un 65% - 70%. El modelo de IA con menos respuestas acertadas es Flan-T5 con un 45% de aciertos.
De acuerdo con los investigadores, para que estas herramientas arrojen un buen resultado, es necesario hacer preguntas precisas y detalladas que incluyan términos médicos. Por ejemplo, en vez de escribir “¿Me duele el pecho, será infarto?”, se debe preguntar “¿Los dolores torácicos agudos indican posible evento cardíaco?”.