Los modelos lingüísticos de IA no distinguen de forma fiable entre las creencias incorrectas de los usuarios y los hechos
- Fecha en Limonatic
Los grandes modelos de lenguaje "pueden respaldar decisiones erróneas y contribuir a la difusión de información falsa", según una investigación liderada por la Universidad de Stanford “Aprender fontanería”: el consejo de Geoffrey Hinton, el padrino de la IA, para prepararse ante el futuro laboral Los grandes modelos de lenguaje (LLM) como ChatGpt o DeepSeek pueden no reconocer de forma fiable las creencias incorrectas de los usuarios, señala un estudio que publica hoy Nature Machine Intelligence. Los LLM son una herramienta cada vez más popular en campos de alto riesgo, como la medicina, el derecho y la ciencia, donde es crucial la capacidad de distinguir entre lo que es una creencia personal de un conocimiento factual. La investigación, encabezada por la Universidad de Stanford, analizó cómo 24 LLM, entre ellos DeepSeek y GPT-4o, respondían a hechos y creencias personales en 13.000 preguntas. Los resultados del estudio ponen de relieve la necesidad
Autor · clanes
Votos · compartir
Las historias descartadas o eliminadas no admiten votos ni reportes.
Detalles avanzados Timeline y mini scoring
Evolución temporal
-
Enviada
hace 3 meses · Ingresó como candidata
-
Último estado
hace 2 meses · Última actualización registrada
Fuentes
- Fuente principal
-
eldiario.es
https://www.eldiario.es
Comentarios