Un robot con ChatGPT recomienda beber lejía
Los clientes de un supermercado de Nueva Zelanda recibieron esta información del robot
Un robot con ChatGPT recomienda algo realmente nocivo para la salud como es beber lejía. Ha ocurrido en Nueva Zelanda y se debe a que los algoritmos de esta IA todavía no funcionan lo suficientemente bien como para separar lo que es bueno de lo que es información nociva o peligrosa. El robot se entrena con datos de internet, lo que hace que a veces recopile y dé por buenas informaciones un tanto peligrosas o incluso nocivas directamente para la salud de los seres humanos.
El robot Savey Meal-Bot, que trabaja para una cadena de supermercados, ha estado ayudando a sus clientes para crear recetas y menús de comida para ayudar y mejorar la salud de los que le rodean. Solo había que darle tres ingredientes y con ello el robot nos haría con facilidad una serie de recetas. El problema vino a raíz de que dió recetas que pueden causar la muerte de las personas.
De hecho, recomendó beber lejía para refrescarnos, al igual que recomendó una bebida con gas de cloro que puede causar la muerte por asfixia. La lejía era para tener un aliento fresco, y además recomendó mezclarla con arroz para otros usos.
Poco después que ChatGPT recomienda beber lejía, incluso llegó a ofrecer sandwiches con veneno para hormigas y pegamento, así como otros con metanol y pegamento. Algo que empezó a causar incomodidad entre los usuarios del supermercado, a la vez que risas al ser algo ridículo en cierta medida y que nadie debería tomarse en serio.
Por este motivo, la cadena de supermercados parece estar trabajando en afinar el algoritmo para que sea mucho más apto para el uso que pretenden. Culpa a su vez a aquellos que han usado el robot para ‘fines malos’ con el objetivo de formular preguntas inapropiadas y con sorna, afectando así a la utilización del robot.
Fuente: https://bit.ly/3EdWdIW