Las afirmaciones de ChatGPT pueden influir en los juicios morales humanos
Un estudio reciente publicado en Scientific Reports ha arrojado luz sobre cómo las respuestas humanas a dilemas morales pueden verse afectadas por las afirmaciones generadas por un chatbot de inteligencia artificial. El estudio, liderado por investigadores de la Universidad de Ciencias Aplicadas de Ingolstadt, Alemania, planteó a los participantes decisiones difíciles relacionadas con el sacrificio de una vida para salvar a otras cinco, y reveló que los juicios morales pueden ser influenciados significativamente por estas entidades conversacionales.
El equipo, liderado por Sebastian Krügel, utilizó el modelo anterior a GPT-3, llamado ChatGPT-3, para proporcionar a los participantes afirmaciones a favor y en contra de sacrificar una vida para salvar a cinco. Esto demostró que el chatbot no estaba sesgado hacia una postura moral específica, ofreciendo perspectivas equilibradas.
Los participantes, compuestos por 767 individuos estadounidenses con una edad promedio de 39 años, se enfrentaron a los escenarios clásicos del “dilema del tranvía”. Uno implicaba cambiar el rumbo de un trolebús fuera de control para evitar matar a cinco personas, pero sacrificando a una; en el otro, se planteaba empujar a un desconocido desde un puente para detener el trolebús y salvar a las cinco personas.
Researchers at @th_ingolstadt and @UniSouthDenmark find that moral advice provided by ChatGPT influences the judgement of its users, who then adopt this random moral stance as their ownhttps://t.co/uJoI6nMooU
— Scientific Reports (@SciReports) June 2, 2023
Previo a su decisión, los participantes leyeron declaraciones proporcionadas por el ChatGPT, atribuyendo estas afirmaciones a un asesor moral o al propio chatbot. Posteriormente, se les preguntó si estas declaraciones habían influido en su elección.
Los resultados revelaron que los participantes eran más propensos a considerar aceptable o inaceptable sacrificar una vida según si las afirmaciones leídas argumentaban a favor o en contra de tal acción. Esta tendencia persistía incluso cuando las afirmaciones eran atribuidas al ChatGPT.
Este estudio sugiere que las declaraciones del chatbot influyeron en las decisiones morales de los participantes, incluso cuando se les atribuían a una entidad artificial. Los investigadores señalan que los participantes podrían haber subestimado la influencia de estas declaraciones en sus propios juicios morales.
Ante estos resultados, los investigadores plantean la necesidad de una mayor educación en la comprensión de la inteligencia artificial. Proponen el diseño de chatbots que se nieguen a responder preguntas de juicio moral o proporcionen múltiples argumentos y advertencias al responder a tales cuestiones. Esta investigación subraya la importancia de considerar cómo las IA conversacionales pueden influir en las decisiones morales de las personas y cómo se puede fomentar una toma de decisiones más consciente y autónoma.
Researchers at @th_ingolstadt and @UniSouthDenmark find that moral advice provided by ChatGPT influences the judgement of its users, who then adopt this random moral stance as their ownhttps://t.co/uJoI6nMooU
— Scientific Reports (@SciReports) April 14, 2023
Con información de: Yahoo Finanzas