Dawn Project critica a las grandes tecnológicas por vender aceite de serpiente de IA

El grupo de defensa de la seguridad The Dawn Project ha intensificado su campaña para ilustrar las fallas de los sistemas de inteligencia artificial (IA) y por qué no deberían implementarse en casos de uso críticos para la seguridad.

El Proyecto Dawn está haciendo campaña para crear conciencia sobre el peligro de lo que llama un “ataque cibernético catastrófico” resultante del uso de software de calidad comercial fácilmente pirateado y plagado de errores en aplicaciones críticas para la seguridad, como los sistemas de agua y la red eléctrica.

En su sitio web, el grupo afirmó que a pesar de los defectos obvios en los sistemas de IA, como que los chatbots aún no responden preguntas básicas o reescriben datos basándose en malentendidos de su entrenamiento, los “pioneros” de la IA continúan exagerando el progreso que han logrado estos sistemas. Este progreso, según The Dawn Project, sugiere que los desarrolladores de IA ahora están listos para implementar sistemas de IA en las principales infraestructuras de todo el mundo.

“Cuando los sistemas de IA se utilizan en tecnologías importantes con un impacto potencialmente devastador, es primordial que nunca fallen en ningún incidente crítico para la seguridad”, dijo el grupo. “No se pueden ignorar ni subestimar los peligros de liberar estas tecnologías a una escala más amplia para su uso en armas o maquinaria pesada, incluidos automóviles”.

Como parte de su campaña, que ha incluido publicidad en El Diario de Wall Street y El New York Times Para crear conciencia sobre los riesgos inherentes a la IA, Dan O’Dowd, empresario de software y fundador de The Dawn Project, ha denunciado el software de conducción autónoma total impulsado por IA de Tesla. Dijo que incluso después de 10 años de desarrollo, la tecnología de inteligencia artificial de Tesla todavía adelanta ilegalmente a un autobús escolar detenido y atropella a niños que cruzan la calle.

Más contenido para leer:  Lords begin inquiry into large language models

La Administración Nacional de Seguridad del Tráfico en Carreteras de EE. UU. investigó previamente si el piloto automático de Tesla contenía un defecto que creaba un riesgo irrazonable para la seguridad de los vehículos de motor. Su evaluación implicó un análisis exhaustivo de accidentes, análisis de factores humanos, evaluaciones de vehículos y evaluación de la autoridad de control de vehículos y tecnologías de participación del conductor.

La investigación de la Oficina de Defectos de la NHTSA indicó que al menos 13 accidentes involucraron una o más muertes y muchos más involucraron lesiones graves en los que el previsible mal uso del sistema por parte del conductor jugó un papel aparente.

En su sitio web, The Dawn Project trazó una analogía entre el jugador, que insiste en que su “sistema” es sólido, y los defensores de la Al que piden enormes sumas de dinero y plantas de energía para construir sistemas de Al aún más grandes.

“Afirman ser los dueños de la tecnología que transportará a la humanidad a un paraíso donde todos obtendrán todo lo que quieran y nadie tendrá que trabajar, o tal vez exterminará a todos”, dijo el grupo. “No son más que predicadores itinerantes de hoy en día que venden medicamentos patentados”.

La publicidad muestra a Microsoft, Google y OpenAI como organizaciones que venden aceite de serpiente de IA. El anuncio afirma que Microsoft invirtió 13 mil millones de dólares en ChatGPT de OpenAl, pero cuando se le pidió que enumerara los estados de EE. UU. que terminaban con la letra ‘Y’, tres de las cinco respuestas que dio estaban equivocadas.

Más contenido para leer:  Pure agrega FlashArray//E para la opción de capacidad QLC en arreglos de rendimiento

“Los investigadores de IA aceptan que las ‘alucinaciones’ son una debilidad fundamental e irresoluble de los grandes modelos de lenguaje y admiten que no pueden explicar por qué las IA toman ciertas malas decisiones”, dijo O’Dowd. “Debemos exigir coherencia y confiabilidad en nuestros sistemas críticos para la seguridad. Debemos rechazar las IA alucinantes y aplicar los mismos estándares rigurosos de seguridad de software que exigimos para la seguridad nuclear a la infraestructura crítica de la que dependen la sociedad y millones de vidas”.

El Proyecto Dawn advirtió que el software de calidad comercial no debe utilizarse para ninguna aplicación en la que exista la posibilidad de dañar o matar a una persona. “Ya se ha demostrado que estos sistemas no son adecuados para su propósito”, dijo. “Entonces, ¿cómo pueden los maestros de la tecnología afirmar que están listos para ser utilizados en soluciones de infraestructura potencialmente mortales?”

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales