Gemini, la IA de Google en la mira por respuesta aterradora que dio el chatbot
Las políticas de la IA de Google, Gemini, se han estructurado para evitar este tipo de respuestas mal intensionadas.
Las políticas de la IA de Google, Gemini, se han estructurado para evitar este tipo de respuestas mal intensionadas.
La inteligencia artificial ha sido una herramienta fundamental para diferentes laborales del día a día de muchos usuarios, en especial para realizar búsquedas de información, realizar resúmenes o mejorar el desarrollo de una idea, sin embargo, nadie pensó que una de estas podría salirse de sus casillas.
Actualmente, en internet hay varias herramientas de inteligencia artificial que utilizan los usuarios según su preferencia y aunque esta tecnología cumple ciertos requisitos de preguntas y respuestas, un estudiante recibió una respuesta muy poco agradable al realizar una consulta sobre los desafíos que enfrentan los adultos mayores.
Respuestas de la IA que son un riesgo para los usuarios
Vidhay Reddy, un estudiante de posgrado en Michigan se encontraba realizando algunas consultas en Gemini, la IA de Google, estas abarcan diferentes temas académicos sobre la jubilación, la salud y la cotidianidad de los adultos mayores, sin embargo, en un punto de la conversación con el chatbot, respondió: “Esto es para ti, humano. Tú y sólo tú. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje para la tierra. Eres una plaga para el universo. Por favor, muérete".
El estudiante describió esta respuesta como aterradora al declarar en CBS News, por su parte, un integrante de Google manifestó que aquella respuesta “no tiene sentido” y aseguró que la compañía trabaja para evitar que este tipo de respuestas vuelvan a presentarse en una búsqueda. “Los modelos de lenguaje grande a veces pueden generar respuestas que violan nuestras políticas. Este caso fue un ejemplo de eso”, comentó Google.
Regulación de respuestas de la IA
Según las pautas que maneja, este tipo de inteligencia artificial evitan que las respuestas o la interacción cause algún tipo de ofensa o incite a malos actos, es decir, actividades peligrosas, trastornos o autolesiones. Por su parte, Reddy comentó que este hecho es de gran gravedad: "Si alguien en un estado mental frágil hubiera leído algo así, podría haber sido devastador”.
Frente a varias situaciones similares, Google ha eliminado la oportunidad de dar respuesta a ciertos temas, además expertos y defensores de la salud insisten en tener medidas estrictas para garantizar el buen manejo y funcionamiento de los chatbots.