Grandes marcas adoptan herramientas de IA a pesar de los riesgos

Partnership on AI es una organización sin fines de lucro, comprometida con el uso responsable de la inteligencia artificial. Investiga las buenas prácticas para los sistemas de inteligencia artificial y para educar al público sobre estos.
0
483

Incluso si usted no ha probado las herramientas en línea de Inteligencia Artificial (IA) que pueden escribir ensayos y poemas o conjurar imágenes nuevas según sus órdenes, es probable que las empresas que fabrican los productos que usa en el hogar ya hayan comenzado a hacerlo.

Mattel ya puso a trabajar a DALL-E, un generador de imágenes con IA, para que proponga ideas para los nuevos autos de juguete Hot Wheels. El vendedor de vehículos usados CarMax resume miles de reseñas de clientes con la misma tecnología “generativa” de IA que impulsa al popular chatbot ChatGPT.

Mientras tanto, Snapchat traerá por incorporar un chatbot a su servicio de mensajería. Y la empresa de entrega de comestibles Instacart ha integrado ChatGPT para responder las preguntas de los clientes sobre sus alimentos.

Coca-Cola planea usar IA generativa para ayudar a crear contenido nuevo de mercadotecnia. Y aunque la compañía no ha detallado exactamente cómo planea implementar la tecnología, la medida refleja la creciente presión sobre las empresas para aprovechar las herramientas que muchos de sus empleados y consumidores ya están ensayando por su cuenta.

“Debemos aceptar los riesgos”, manifiesta James Quincey, director general de Coca-Cola, en un video reciente que anuncia una asociación con la startup OpenAI —creadora de DALL-E y ChatGPT— a través de una alianza liderada por la firma de consultoría Bain. “Necesitamos aceptar esos riesgos de manera inteligente, experimentar, construir sobre esos experimentos, impulsar la escala; pero no asumir esos riesgos es un punto de vista inútil para comenzar”.

De hecho, algunos expertos en IA advierten que las empresas deben analizar cuidadosamente los posibles daños a los clientes, la sociedad y su propia reputación antes de apresurarse a adoptar ChatGPT y productos similares en el lugar de trabajo.

“Quiero que la gente piense muy bien antes de implementar esta tecnología”, advierte Claire Leibowicz de The Partnership on AI (La Asociación sobre IA), un grupo sin fines de lucro fundado y patrocinado por los principales proveedores de tecnología que recientemente publicó un conjunto de recomendaciones para las empresas que producen imágenes, audio y otros medios sintéticos generados por IA. “Deberían jugar y experimentar, pero también deberíamos pensar, ¿para qué sirven estas herramientas en primer lugar?”.

Algunas empresas han experimentado con la IA durante un tiempo. Mattel reveló en octubre su uso del generador de imágenes de OpenAI como cliente de Microsoft, que tiene una asociación con OpenAI que le permite integrar su tecnología en la plataforma de computación en la nube de Microsoft.

Pero no fue hasta el lanzamiento el 30 de noviembre de ChatGPT, una herramienta pública gratuita de OpenAI, que el interés generalizado en las herramientas de IA generativa comenzó a filtrarse en los lugares de trabajo y las oficinas de los altos ejecutivos.

“ChatGPT me hizo darme cuenta realmente de lo poderosas que eran”, explica Eric Boyd, un ejecutivo de Microsoft que dirige su plataforma de inteligencia artificial. “Eso ha cambiado el punto de vista en la mente de muchas personas y realmente lo entienden en un nivel más profundo. Mis hijos lo usan y mis padres lo usan”.

No obstante, hay razones para tener cautela.

Si bien los generadores de texto como ChatGPT y el chatbot Bing de Microsoft pueden hacer que el proceso de escribir correos electrónicos, presentaciones y propuestas de mercadotecnia sea más rápido y fácil, también tienen la tendencia de presentar con confianza información errónea como si fueran hechos. Los generadores de imágenes entrenados con un enorme acervo de arte y fotografías digitales han planteado preocupaciones por los derechos de autor de los creadores originales de esas obras.

“Para las empresas que están realmente en la industria creativa, si quieren estar seguros de tener protección de derechos de autor para esos modelos, esa es todavía una pregunta abierta”, advierte la abogada Anna Gressel del bufete de abogados Debevoise & Plimpton, que asesora a las empresas sobre cómo utilizar la IA.

Un uso más seguro ha sido imaginar a las herramientas como un “socio pensante” para las lluvias de ideas que no producirá el producto final, agrega Gressel.

“Ayuda a crear prototipos que luego serán convertidos por un ser humano en algo más concreto”, afirma.

Y eso también ayuda a garantizar que la IA reemplace a los seres humanos. Rowan Curran, analista de la asesora empresarial Forrester, cree que las nuevas herramientas acelerarán algunas de las tareas más básicas de la oficina —al igual que innovaciones anteriores como los procesadores de texto y los correctores ortográficos— en lugar de dejar a las personas sin empleo, como algunos temen.

“En última instancia, es parte del flujo de trabajo”, expresa Curran. “No es como si estuviéramos hablando de hacer que un modelo de lenguaje grande genere una campaña de mercadotecnia completa y hacer ese lanzamiento sin expertos sénior en mercadotecnia y todo tipo de otros controles”.

En cuanto a los chatbots orientados al consumidor que son integrados en las apps de los teléfonos, las cosas se vuelven un poco más complicadas, añade Curran, por la necesidad de medidas de seguridad en torno a la tecnología que puede responder las preguntas de los usuarios de maneras inesperadas.

El interés público impulsó la creciente competencia entre los proveedores de computación en la nube Microsoft, Amazon y Google, que venden sus servicios a organizaciones grandes y tienen el poder de cómputo masivo que se necesita para entrenar y operar modelos de IA. Microsoft anunció a principios de este año que invertirá miles de millones de dólares más en su asociación con OpenAI, a pesar de que también compite con la startup como proveedor directo de herramientas de IA.

Google, que fue pionero en los adelantos de IA generativa, pero ha sido cautelosa para presentarlos al público, ahora tiene que recuperarse para alcanzar sus posibilidades comerciales, incluido un próximo chatbot Bard. La empresa matriz de Facebook —Meta, otro líder en investigación de IA— está creando una tecnología similar, pero no la vende a las empresas de la misma manera que sus grandes pares tecnológicas.

Amazon ha adoptado un tono más moderado, pero deja claras sus ambiciones a través de sus últimas asociaciones: la más reciente es una colaboración más amplia entre AWS —su división de computación en la nube— y la startup Hugging Face, creadora de Bloom, un rival de ChatGPT.

Hugging Face decidió reforzar su asociación con Amazon después de ver la explosión en la demanda de productos de Inteligencia Artificial generativa, manifiesta Clement Delangue, cofundador y director general de la startup. Pero Delangue contrastó su enfoque con competidores como OpenAI, que no revela su código ni conjuntos de datos.

Hugging Face alberga una plataforma que permite a los desarrolladores compartir modelos de IA de código abierto para herramientas de texto, imagen y audio, lo que puede sentar las bases para crear productos diferentes. Esa transparencia es “verdaderamente importante, porque esa es la manera de que los reguladores, por ejemplo, entiendan estos modelos y los puedan regular”, agrega.

También es una forma de que “las personas subrepresentadas comprendan dónde pueden estar los sesgos (y) cómo se ha capacitado a los modelos” a fin de mitigar ese sesgo, señala Delangue.

Comments are closed.