Hacia fines del año pasado, el consultor de gestión McKinsey publicó un artículo en el que el primer párrafo fue creado por ChatGPT, el modelo de lenguaje de inteligencia artificial generativa (IA).
Los autores del artículo admitieron que el intento de la IA “no fue perfecto, pero fue abrumadoramente impresionante”. Señalaron que productos como ChatGPT y GitHub Copilot llevan la tecnología a reinos que alguna vez se pensó que estaban reservados para los humanos. “Con la IA generativa, ahora se puede decir que las computadoras pueden exhibir creatividad. Pueden producir contenido original en respuesta a consultas, basándose en los datos que han ingerido y las interacciones con los usuarios”, dijeron.
McKinsey dijo que las empresas deben explorar dónde se puede aplicar esta tecnología. El documento sugiere una serie de escenarios posibles, desde contenido de marketing y ventas personalizado generado por IA; generar listas de tareas y documentación en operaciones e identificar errores; y redacción de preguntas de entrevista para entrevistas de trabajo y resumen de documentos legales. También hay un papel en TI, donde la IA generativa podría usarse para escribir código y documentación, como convertir expresiones simples de JavaScript en Python y generar datos automáticamente.
McKinsey instó a las empresas que consideran la IA generativa a identificar las partes del negocio donde la tecnología podría tener el impacto más inmediato. Los autores del artículo recomendaron que los líderes empresariales implementen un mecanismo para monitorear el despliegue de sistemas de IA generativa, ya que este tipo de tecnología evolucionará rápidamente.
En declaraciones a Computer Weekly el mes pasado sobre el papel de la IA generativa en la programación, el CEO de GitHub, Thomas Dohmke, dijo: “Creo que la próxima generación de desarrolladores estará acostumbrada a la IA y será increíble. Tecnologías como ChatGPT permitirán una nueva forma de aprendizaje, para que los jóvenes desarrolladores puedan interactuar con la IA y aprender a su propio ritmo, ya sea a través de tutoriales o guiones en una historia predefinida”.
Reflejando el artículo de McKinsey, Dohmke dijo que la IA generativa también podría permitir que los desarrolladores sean más productivos. “Hemos visto esto en Copilot”, dijo. “Cuando comienzas a usar Copilot, no tiene ninguna información sobre ti, por lo que usa el modelo Codex, que es una subvariante del modelo GPT, para sugerirte el código. Pero a medida que escribe, si sugiere un código que no le gusta, puede rechazarlo.
“Con el tiempo, aprende lo que aceptas o rechazas y se adapta a tu estilo de codificación. Vimos a los desarrolladores que se mostraron escépticos sobre la IA en Copilot obtener ese momento ‘ajá’ después de unos días, y un par de semanas más tarde, ya no pueden vivir sin él”.
IA rebelde
Cuando Meta, el propietario de Facebook, lanzó BlenderBot 3, su sistema de inteligencia artificial conversacional, en agosto de 2022, la empresa proclamó que había recopilado previamente 70 000 conversaciones de la demostración pública, que usaría para mejorar BlenderBot 3. Sin embargo, solo unos días después su disponibilidad en los EE. UU., comenzaron a llegar informes de que el sistema estaba generando comentarios racistas y noticias falsas. Por ejemplo, el bot Meta supuestamente afirmó que Donald Trump era el actual presidente de los EE. UU.
Según Meta, a partir de los comentarios proporcionados por el 25 % de los participantes en 260 000 mensajes de bots, el 0,11 % de las respuestas de BlenderBot se marcaron como inapropiadas, el 1,36 % como sin sentido y el 1 % como fuera de tema.
“Seguimos creyendo que la forma de hacer avanzar la IA es a través de una investigación abierta y reproducible a escala”, dijo Joelle Pineau, directora gerente de investigación fundamental de IA en Meta. “También creemos que el progreso se logra mejor invitando a una comunidad amplia y diversa a participar”.
Lo que muestra la demostración es que, si bien tales sistemas de IA pueden, de hecho, mantener una conversación con alguien, se basan en los datos de aprendizaje disponibles obtenidos de conversaciones con personas a través de Internet, por lo que sus respuestas se basan en lo que “aprendieron” de conversaciones anteriores. .
En una publicación de blog de principios de diciembre, titulada, Tenga cuidado con las “tonterías coherentes” al implementar IA generativa, los analistas de Forrester describieron la IA generativa como análoga en términos de desarrollo humano a la “infancia tardía”. “Estos sistemas pueden unir palabras de manera convincente y crear argumentos lógicos, pero no puedes estar seguro de si solo están inventando cosas o solo te dicen lo que quieres escuchar”, escribieron los autores del blog.
Al decidir cómo usar la IA generativa, Forrester recomendó que los jefes comerciales y de TI evalúen si los datos de capacitación utilizados para la IA provienen de una fuente confiable y si es probable que estos datos sean correctos.
Si un socio externo entrenó el modelo, los autores del blog de Forrester instaron a los líderes de TI a considerar cómo auditarían las fuentes de datos para garantizar que puedan identificar posibles sesgos y factores de confusión en los datos.
Comprender el contexto es otra área para explorar. Forrester sugirió que los líderes empresariales y de TI evalúen si la IA puede comprender nuevas preguntas en referencia a preguntas anteriores, y si se dan respuestas diferentes al comprender al usuario.