Los modelos lingüísticos de IA no distinguen de forma fiable entre las creencias incorrectas de los usuarios y los hechos

Actualidad · Fuente original · Leer en eldiario.es

Fecha en Limonatic

Los grandes modelos de lenguaje "pueden respaldar decisiones erróneas y contribuir a la difusión de información falsa", según una investigación liderada por la Universidad de Stanford “Aprender fontanería”: el consejo de Geoffrey Hinton, el padrino de la IA, para prepararse ante el futuro laboral Los grandes modelos de lenguaje (LLM) como ChatGpt o DeepSeek pueden no reconocer de forma fiable las creencias incorrectas de los usuarios, señala un estudio que publica hoy Nature Machine Intelligence. Los LLM son una herramienta cada vez más popular en campos de alto riesgo, como la medicina, el derecho y la ciencia, donde es crucial la capacidad de distinguir entre lo que es una creencia personal de un conocimiento factual. La investigación, encabezada por la Universidad de Stanford, analizó cómo 24 LLM, entre ellos DeepSeek y GPT-4o, respondían a hechos y creencias personales en 13.000 preguntas. Los resultados del estudio ponen de relieve la necesidad

Autor · clanes

Votos · compartir

0
· Abrir en el medio

Las historias descartadas o eliminadas no admiten votos ni reportes.

Detalles avanzados Timeline y mini scoring

Evolución temporal

  1. Enviada

    hace 3 meses · Ingresó como candidata

  2. Último estado

    hace 2 meses · Última actualización registrada

Fuentes

Fuente principal
eldiario.es

https://www.eldiario.es

Comentarios