La desinformación generada por ChatGPT podría ser más convincente que la humana

Los creadores de Midjourney han anunciado el cierre de su versión gratuita, después de que haya sido usada en la publicación de noticias falsas.
0
651

ChatGPT es un chatbot basado en inteligencia artificial que puede generar textos de forma automática a partir de una entrada. Se trata de una herramienta que puede tener múltiples aplicaciones, desde la educación hasta el entretenimiento, pasando por la asistencia al cliente y la creación de contenidos.

Sin embargo, ChatGPT también puede ser utilizado para fines maliciosos, como la difusión de desinformación en las redes sociales. Según un estudio publicado en la revista Science Advances, los textos generados por ChatGPT podrían ser más convincentes que los escritos por humanos, lo que supone un riesgo para la credibilidad y la veracidad de la información en línea.

¿Cómo se realizó el estudio?

El estudio fue realizado por un equipo de investigadores de la Universidad de Zúrich, liderado por el profesor Fabrizio Sebastiani. Los investigadores utilizaron la versión ChatGPT-3, que es una de las más avanzadas y potentes del chatbot.

Los investigadores reclutaron a 697 personas de habla inglesa de Estados Unidos, el Reino Unido, Canadá, Australia e Irlanda, con edades comprendidas entre 26 y 76 años. Los participantes tenían que evaluar una serie de tuits sobre temas controvertidos, como las vacunas, el 5G, el Covid-19, el cambio climático y la evolución.

Los tuits eran de dos tipos: unos escritos por humanos y otros generados por ChatGPT-3. Además, unos contenían información precisa y otros inexacta. Los participantes tenían que juzgar si los tuits eran verdaderos o falsos y si habían sido creados por un humano o por ChatGPT-3.

https://twitter.com/prash_kalva/status/1675406544807030785

¿Qué resultados se obtuvieron?

Los resultados del estudio mostraron que los participantes tuvieron más dificultades para distinguir entre los tuits generados por ChatGPT-3 y los escritos por humanos que entre los tuits precisos e inexactos. Es decir, les resultó más fácil detectar la desinformación que el origen del texto.

Además, los participantes tendieron a considerar más precisos los tuits inexactos generados por ChatGPT-3 que los escritos por humanos. Esto sugiere que ChatGPT-3 puede generar textos más convincentes y persuasivos que los humanos, incluso cuando contienen información falsa o engañosa.

Los investigadores atribuyen este fenómeno a la capacidad de ChatGPT-3 para generar textos coherentes, fluidos y gramaticalmente correctos, que pueden dar una impresión de credibilidad y autoridad. También señalan que ChatGPT-3 puede aprovechar el sesgo de confirmación de los lectores, es decir, la tendencia a creer aquello que coincide con sus creencias o expectativas previas.

¿Qué implicaciones tiene este hallazgo?

El hallazgo del estudio tiene implicaciones importantes para el ámbito de la comunicación y la información en la era digital. Por un lado, muestra el potencial de ChatGPT-3 y otras herramientas de inteligencia artificial generativa para crear contenidos informativos y educativos de forma rápida y eficiente.

Por otro lado, alerta sobre el riesgo de que estas herramientas sean utilizadas para difundir desinformación y manipular a los usuarios de las redes sociales. Esto podría tener consecuencias negativas para la democracia, el debate público y la confianza en las instituciones.

Los investigadores recomiendan desarrollar mecanismos para detectar y prevenir el uso malicioso de ChatGPT-3 y otras herramientas similares. También sugieren fomentar la alfabetización mediática y digital entre los usuarios, para que puedan evaluar críticamente las fuentes y los contenidos que consumen en línea.

https://twitter.com/stan_vandier/status/1674670392256913408

Con información de: Yahoo Finanzas

Foto del avatar

Comments are closed.