Herramienta de búsqueda ChatGPT de OpenAI: Un análisis de problemas de precisión
El lanzamiento de la herramienta de búsqueda ChatGPT de OpenAI tenía como objetivo proporcionar a los usuarios respuestas rápidas y oportunas, junto con enlaces a fuentes relevantes. Sin embargo, pruebas recientes realizadas por el Centro Tow para el Periodismo Digital de la Universidad de Columbia han puesto de manifiesto algunos problemas de precisión preocupantes con la herramienta.
Hallazgos de la investigación de Columbia
Los investigadores del Centro Tow examinaron la capacidad de ChatGPT para proporcionar citas precisas de varios medios de comunicación. Durante el estudio, solicitaron al bot que identificara la fuente de doscientas citas de veinte publicaciones diferentes. Alarmantemente, los hallazgos indicaron que el chatbot tuvo dificultades significativas para cumplir con esta tarea. Por ejemplo, cuarenta de las citas procedían de editores que no habían permitido el acceso del rastreador de búsqueda de OpenAI a sus sitios web. A pesar de esto, el chatbot proporcionó de manera confiada información incorrecta.
Grado de atribución errónea
Los datos revelaron que ChatGPT devolvió respuestas incorrectas 153 veces pero solo reconoció incertidumbre en siete ocasiones. En estas raras instancias, el bot utilizó calificadores como "parece", "es posible" o declaró explícitamente su incapacidad para localizar artículos exactos. Esto genera dudas sobre la fiabilidad de la información presentada por la IA.
Ejemplos de respuestas incorrectas
- Un error notable involucró la atribución incorrecta de una cita de carta al editor del Orlando Sentinel a una historia publicada en Time.
- En otro caso, mientras intentaba identificar una cita de un artículo del New York Times sobre ballenas en peligro de extinción, ChatGPT dirigió a los usuarios a un sitio diferente que había plagiado la historia original.
Respuesta de OpenAI
OpenAI respondió a los hallazgos, afirmando que los desafíos de atribución errónea son difíciles de resolver sin el acceso completo a los datos y metodologías utilizados por los investigadores del Centro Tow. Caracterizaron el estudio como una prueba atípica de su producto y prometieron mejoras continuas para mejorar los resultados de búsqueda.
Implicaciones para los usuarios
Este estudio plantea preocupaciones significativas sobre la fiabilidad de la información generada por la IA. Los usuarios que confían en ChatGPT para obtener datos precisos y en tiempo real deben ejercer precaución, especialmente dada la tendencia del bot a ofrecer información con confianza engañosa.
Conclusión
A medida que las herramientas de IA se vuelven cada vez más prevalentes en el consumo diario de información, garantizar su fiabilidad es fundamental. El compromiso de OpenAI para mejorar la herramienta de búsqueda ChatGPT refleja la necesidad de mejoras continuas en la precisión y la integridad de la información.
Lectura adicional
Si estás interesado en entender más sobre cómo funcionan las herramientas de IA y sus implicaciones en el periodismo, considera revisar artículos relevantes sobre periodismo digital y ética de la IA.
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.