SINGAPUR – Los errores de chatbot en el sitio web del Ministerio de Salud (MOH) dejaron perplejos a algunos usuarios de Internet, y muchos les hicieron cosquillas, durante el fin de semana después de que dio consejos sobre planificación familiar cuando se le preguntó sobre los problemas de Covid-19.
Las capturas de pantalla del error del chatbot Ask Jamie se compartieron en línea, como en el foro de discusión de Reddit, y en su mayoría generaron respuestas divertidas de los internautas.
Cuando se le preguntó al chatbot: «Mi hija dio positivo en la prueba de Covid 19, ¿qué debo hacer?», El embarazo de su esposa por parte de la pareja.
Otras variaciones incluyen el uso de «hijo» en lugar de «hija» en la pregunta.
Pero el chatbot daría el consejo adecuado: mantenga la calma y permanezca en el lugar de alojamiento de la persona, si la pregunta se formulara de manera diferente.
El lunes (4 de octubre), Ask Jamie fue eliminado del sitio web del Ministerio de Salud.
Un producto de una agencia de tecnología gubernamental desarrollado por la compañía de software flexAnswer Solutions, el asistente virtual Ask Jamie utiliza tecnología de procesamiento de lenguaje natural para «comprender» una pregunta y obtener la respuesta más relevante del sitio web o la base de datos de una agencia gubernamental.
Un chatbot debe estar «entrenado» para aprender el habla humana y comprender las diferentes formas en que se puede hacer una pregunta.
Esto puede ser tedioso, especialmente si lo hace manualmente un equipo humano que analiza miles de preguntas y respuestas, dijo Jude Tan, director comercial de la firma de inteligencia artificial INTNT.ai.
«Tiene preguntas semánticamente similares, pero apunta a dos respuestas diferentes», agregó, refiriéndose al error de Ask Jamie.
Algunos internautas intentaron explicar el paso en falso, alegando que el chatbot detectó ciertas palabras en la pregunta y las malinterpretó como si se tratara de una enfermedad de transmisión sexual.
Las respuestas incorrectas, llamadas «falsos positivos», pueden ocurrir en aproximadamente un tercio de las respuestas de un chatbot no capacitado, dijo Tan.
A medida que un cuadro de chat se vuelve más complejo y su base de datos de respuestas aumenta, también aumenta la probabilidad de dar una respuesta incorrecta.
Un chatbot que no proporciona las respuestas correctas a dos o tres preguntas de los usuarios se refleja mal en la empresa, agregó Tan.
«Conozco algunas empresas que lanzaron sus bots y … los cerraron dos o tres años después, debido a la negatividad que rodeaba a los bots (que) afectó a su marca».
El chatbot Ask Jamie se ha implementado en más de 70 sitios web de agencias gubernamentales.
Está personalizado para responder preguntas sobre los servicios de la agencia anfitriona y otros temas relevantes, pero también se ha actualizado para mostrar las respuestas de la agencia más relevante.
Aunque se eliminó del sitio web del Ministerio de Salud, un control de The Straits Times muestra que el chatbot todavía está presente en otros sitios web.
En respuesta a las preguntas de ST, el Ministerio de Salud dijo el lunes por la noche que estaba al tanto de las respuestas desalineadas del chatbot.
“Desactivamos temporalmente la función hoy para permitirnos realizar una verificación completa del sistema y trabajar en las mejoras”, dijo el ministerio.
Mientras tanto, el público puede visitar este sitio si tiene alguna pregunta sobre el coronavirus, agregó.