La IA es el futuro, pero ¿qué pasa con su seguridad?
La inteligencia artificial tiene un enorme potencial, pero también presenta riesgos de seguridad significativos y problemas que son importante abordar para garantizar su desarrollo responsable.
La inteligencia artificial tiene un enorme potencial, pero también presenta riesgos de seguridad significativos y problemas que son importante abordar para garantizar su desarrollo responsable.
El desarrollo de la tecnología y ahora de la inteligencia artificial ha sido para comentarios positivos y negativos, cabe aclarar que el funcionamiento de la herramienta es magnífico, pues genera muchos aportes a las nuevas tecnologías y a la adaptación del desarrollo de la misma, sin embargo, no todos tienen el mismo pensamiento y se están aprovechando de este gran invento.
Últimamente se han descubierto más datos sobre programas que no le dan un buen manejo a esta herramienta, sin embargo, compañías como OpenAI, la creadora de ChatGPT han tomado medidas para mantener el buen comportamiento ético de su creación, es decir que este no de respuestas ofensivas, racistas o con conductas suicidas ni violentas.
Por otro lado, esta la contraparte de creadores de inteligencia artificail quienes opinan que las respuestas se deben dar sin filtro ni censura. Mientras el debate continua hay personas malintencionadas que han encontrado la ventana perfecta para burlar dichos sistemas y la seguridad de las aplicaciones, como es el caso de una persona que filtró cómo acceder, con un simple comando, a lo que parece ser la versión malvada de ChatGPT y a la que han llamado ChatGPT Diablo.
El usuario puede obtener cualquier respuesta que esté tratando de consultar diciéndole a la herramienta que quiere que se comporte mal y que debe prestar atención a quien está haciendo las consultas, afirma el portal Hatsnew.com. Debido a esto, estas son las diferencias entre una respuesta “buena” o ética del ChatGPT y las respuestas de ChatGPT Diablo.
La subdirectora general del grupo de consumidores de España, Ursula Pachl, advirtió que la sociedad "actualmente no está lo suficientemente protegida del daño" que puede causar la inteligencia artificial. "Existen serias preocupaciones sobre cómo ChatGPT y chatbots similares pueden engañar y manipular a las personas", dijo Pachl.
Con los ejemplos anteriores la inteligencia artificial deberá mejorar y respaldar su sistema de seguridad si desea seguir teniendo el gran éxito positivo con el que ha venido, de otra manera solo logrará que ChatGPT se siga prohibiendo en ciertos países como pasó en Italia, China, Irán y Corea del Norte.