Inteligencia artificial 'quedó mal' a Facebook por caso de Nueva Zelanda
¿Inteligencia artificial? Al parecer los controles de Facebook para contenido sensible fallaron en el caso de la masacre de Nueva Zelanda.

¿Inteligencia artificial? Al parecer los controles de Facebook para contenido sensible fallaron en el caso de la masacre de Nueva Zelanda.
Durante 17 minutos quedó el contenido violento expuesto, de la masacre en la mezquitas de Nueva Zelanda, todo, sin ser detectado por los controles de contenido sensible de Facebook.
El australiano Brenton Tarrant, de 28 años, quien es el presunto autor de las masacres en Christchurch, Nueva Zelanda, llevó el odio y la xenofobia a otro nivel, pues pudo transmitir en vivo el ataque a las mezquitas.
Las imágenes revelan al terrorista con varias armas, entre esos una escopeta y un rifle semiautomático, en el preciso momento que ingresase a la primera mezquita para comenzar con la masacre.
Todo parece una escena de videojuegos de armas, tipo Call of Duty, Battlefield, Far Cry o Counter Strike. La escena es cruda, y muy violenta. Funcionarios policiales de Nueva Zelanda alertaron a la red social sobre el contenido de la transmisión en vivo, después de que iniciara el tiroteo.
También te puede interesar: Cinco maneras de saber si te eliminaron de WhatsApp
Directivos de Facebook eliminaron el video, las cuentas del terrorista Brenton Tarrant de Facebook e Instagram. Lo mismo para las redes de YouTube y Twitter.
"También estamos eliminando cualquier elogio o apoyo para el crimen y el tirador o probables tiradores tan pronto como estemos conscientes. Continuaremos trabajando directamente con la Policía de Nueva Zelanda a medida que su respuesta e investigación continúen ", señaló la jefa de Facebook en Australia y Nueva Zelanda, Mia Garlick.
Al parecer se también se suspendió una cuenta vinculada con el tiroteo y accionó en eliminar el video de su plataforma al instante. YouTube, también aseguró que elimina de su plataforma de videos “contenido impactante, violento y gráfico” cuando son detectados.
Usuarios en redes sociales, reportaron que "la inteligencia artificial falló" ya que consideran que el material violento estuvo expuesto por demasiado tiempo mientras se desarrolló el ataque. El material fue muy sensible y expresivo, y para "ser inteligencia" se demoró mucho en ser ubicado y posteriormente eliminado.