Los modelos de lenguaje extenso (LLM) tienen el potencial de transformar el enfoque del análisis de datos y la toma de decisiones. Como tal, es crucial comprender las implicaciones a corto y mediano plazo de este nuevo desarrollo.
Como una aplicación de vanguardia que aprovecha un gran modelo de lenguaje, ChatGPT está revolucionando el pensamiento sobre datos y análisis. Sus capacidades avanzadas en procesamiento de lenguaje natural y aprendizaje automático (ML) ya lo han convertido en una herramienta valiosa para varias industrias, desde finanzas y atención médica hasta educación y entretenimiento.
La evolución de ChatGPT está lejos de terminar. En el próximo año, se espera que haya un rápido progreso en el desarrollo de ChatGPT y soluciones similares, así como la aparición de tecnologías complementarias.
Limitaciones y riesgos
Como una aplicación basada en el modelo de lenguaje grande de GPT, ChatGPT es ideal para tareas relacionadas con el lenguaje. Sin embargo, su capacidad para realizar operaciones matemáticas es más limitada. Es importante tener en cuenta que ChatGPT tiene limitaciones y no es adecuado para muchas tareas de análisis.
Muchos casos de uso de ChatGPT en datos y análisis serán para ayudar a los ingenieros de datos, analistas de datos y científicos de datos con tareas que involucran sistemas de programación y generación de código. Por ejemplo, un ingeniero de datos podría pedirle a un modelo de lenguaje que genere secuencias de comandos de transformación e ingesta de datos, plantillas de configuración y consultas SQL. Un analista de datos podría usarlo para ayudar a generar código DAX para PowerBI, mientras que un científico de datos podría usarlo para ayudar a revisar el código de Python para funciones relacionadas con el aprendizaje automático.
Sin embargo, el uso anterior corre el riesgo de que se transmita información restringida o confidencial a la empresa que crea el modelo. Como resultado, los profesionales de datos y análisis deben asegurarse de que el proveedor de servicios de LLM maneje adecuadamente cualquier material confidencial o de propiedad exclusiva. Para ChatGPT sería OpenAI o Microsoft Azure OpenAI Services. Otro riesgo es que el código generado u otros resultados no sean confiables, por lo tanto, el enfoque recomendado es el uso de estas herramientas para aumentar los procesos del desarrollador.
Los profesionales de datos y análisis deben tomar la iniciativa para informar las políticas de riesgo y cumplimiento relacionadas con el uso de herramientas de IA generativa y actuar como expertos en la materia al educar a las partes interesadas del negocio. Los profesionales deben aplicar el código de IA generado en fases y resaltarlo y monitorearlo contra los controles de calidad del código estándar o estar sujetos a la misma revisión y prueba que el código escrito por humanos.
Políticas para guiar el uso responsable de contenido propietario
Para garantizar un uso seguro y apropiado de ChatGPT, busque establecer políticas para su uso guiadas por el equipo de entrega de datos y análisis. Esto incluye una revisión minuciosa del código generado por parte de los desarrolladores y marcar el código generado como tal y someterlo a los mismos procedimientos de prueba que el código normal. Al hacerlo, las organizaciones pueden asegurarse de que ChatGPT se use de manera responsable y que cualquier salida sea confiable.
En los próximos años, se requerirá un enfoque más proactivo para utilizar herramientas de IA generativa como ChatGPT. Esto implica participar y liderar iniciativas para comprender el impacto de la IA generativa en las empresas y la sociedad en su conjunto. A través de los programas de alfabetización de datos, se debe educar a todos los empleados sobre cómo funcionan los sistemas de IA generativa, sus limitaciones y el alcance de uso apropiado para su función. También se les debe alentar a pensar en casos de uso y formas en que esto se puede usar para ayudarlos al aumentar algunas de sus tareas y automatizar otras.
Para garantizar el uso seguro y eficaz de ChatGPT y competidores, también es fundamental establecer políticas específicas en torno a su uso. Esto incluye buscar orientación de los líderes legales para garantizar el cumplimiento de las normas y leyes.
Las políticas deben garantizar que siempre haya procesos humanos en el circuito para verificar si hay errores y garantizar que el código generado o la salida sean precisos y confiables. Al tomar estos pasos, las organizaciones pueden maximizar los beneficios potenciales de las herramientas de IA generativa mientras minimizan los riesgos asociados con su uso.
Bern Elliot es un distinguido vicepresidente analista de Gartner. La Cumbre de datos y análisis de Gartner se llevará a cabo del 22 al 24 de mayo de 2023 en Londres.