Se ha afirmado que la naturaleza aislada y aislada de cómo el sector tecnológico aborda la innovación está dejando de lado las consideraciones éticas, lo que disminuye la confianza pública en la idea de que las nuevas tecnologías beneficiarán a todos.
Hablando en la sexta Cumbre de Ética Digital anual de TechUK este mes, los panelistas discutieron el desarrollo ético de nuevas tecnologías, particularmente la inteligencia artificial (IA), y cómo garantizar que el proceso esté tan centrado en el ser humano y socialmente útil como sea posible.
Un tema importante de los debates de la Cumbre fue: ¿quién dicta y controla cómo se desarrollan e implementan las tecnologías, y quién dirige los debates sobre lo que se considera “ético”?
En una conversación sobre la ética de la regulación, Carly Kind, directora del Instituto Ada Lovelace, dijo que un tema clave que impregna el desarrollo de nuevas tecnologías es el hecho de que está “dirigido por lo que es técnicamente posible”, en lugar de “lo que es políticamente posible”. deseable”, lo que lleva a resultados perjudiciales para la gente común que, en la mayoría de los casos, está excluida de estas discusiones.
Kind agregó: “Es la experiencia de la mayoría de las personas que su relación con la tecnología es extractiva, lo que les quita autoridad, y la investigación pública muestra una y otra vez que a las personas les gustaría ver más regulación, incluso si se produce a costa de innovación.”
Andrew Strait, director asociado de asociaciones de investigación en el Instituto Ada Lovelace, dijo que la mentalidad de “moverse rápido y romper cosas” del sector tecnológico ha creado un “problema cultural” en el que la obsesión por innovar rápidamente conduce a un “gran desprecio” por la ética y consideraciones morales al desarrollar nuevas tecnologías, lo que lleva a problemas más adelante.
Strait dijo que cuando se consideran los riesgos éticos o morales, existe una tendencia a que los problemas se “arrojen sobre un muro” para que otros equipos dentro de una organización los aborden. “Eso crea una… falta de claridad sobre la propiedad de esos riesgos o confusión sobre las responsabilidades”, agregó.
Sobre la base de este punto, durante una sesión separada sobre el papel del sector tecnológico en los derechos humanos, Anjali Mazumder, líder del tema de justicia y derechos humanos en el Instituto Alan Turing, dijo que existe una tendencia en los involucrados en el desarrollo de nuevas tecnologías y conocimientos a ser aislados unos de otros, lo que inhibe la comprensión de cuestiones clave que se entrecruzan.
Para Mazumder, la pregunta clave es, por lo tanto, “¿cómo desarrollamos supervisión y mecanismos que reconozcan que todos los actores en el espacio también tienen diferentes incentivos y prioridades dentro de ese sistema”, al mismo tiempo que aseguramos una mejor colaboración multi e interdisciplinaria entre esos actores.
En la misma sesión, Tehtena Mebratu-Tsegaye, gerente de estrategia y gobernanza en el “equipo de derechos humanos y tecnología responsable” de BT, dijo que las consideraciones éticas, y los derechos humanos en particular, deben integrarse en los procesos de desarrollo tecnológico desde la etapa de ideación en adelante. , si se quiere que los intentos de limitar el daño tengan éxito.
Pero Strait dijo que los problemas de incentivos existen a lo largo de todo el ciclo de vida de las nuevas tecnologías, y agregó: “Los financiadores están incentivando para moverse muy rápido, no están incentivando la consideración del riesgo, no están incentivando la participación de los miembros del público que se ven afectados por estas tecnologías. , para empoderarlos realmente”.
Para el sector público, que depende en gran medida del sector privado para el acceso a las nuevas tecnologías, Fraser Sampson, comisionado para la retención y el uso de material biométrico y comisionado de cámaras de vigilancia, dijo que se deben insertar condiciones previas éticas en los procedimientos de adquisición para garantizar que tales riesgos sean debidamente considerado al comprar nueva tecnología.
Una cuestión clave en torno al desarrollo de nuevas tecnologías, en particular la IA, es que, si bien gran parte del riesgo se socializa, en el sentido de que su funcionamiento afecta a la gente común, especialmente durante la fase de desarrollo, todos los beneficios se acumulan para los intereses privados que poseen la tecnología. en cuestión, dijo.
Jack Stilgoe, profesor de estudios de ciencia y tecnología en el University College London, dijo que las discusiones éticas en torno a la tecnología se ven obstaculizadas por las empresas tecnológicas que dictan sus propios estándares éticos, lo que crea un rango muy estrecho de debate sobre lo que se considera ético y lo que no.
“Para mí, la pregunta ética más grande sobre la IA, la que realmente importa y creo que definirá las relaciones de confianza de las personas, es quién se beneficia de la tecnología”, dijo, y agregó que los datos del Center for Data Ética e Innovación (CDEI) revela “un escepticismo público sustancial de que los beneficios de la IA se generalizarán, lo que crea un gran problema para el contrato social”.
Stilgoe dijo que existe “un peligro real de complacencia” en las empresas de tecnología, especialmente debido a su falta de comprensión sobre cómo se desarrolla y mantiene la confianza.
“Se dicen a sí mismos, ‘sí, la gente parece confiar en nuestra tecnología, la gente parece feliz de renunciar a la privacidad a cambio de los beneficios de la tecnología’…[but] para un científico social como yo, miraría ese fenómeno y diría, ‘bueno, la gente realmente no tiene otra opción’”, dijo. “Entonces, interpretar eso como una relación de confianza es malinterpretar enormemente la relación que tienes con tus usuarios”.
Tanto Strait como Stilgoe dijeron que parte del problema es la implacable exageración de las nuevas tecnologías por parte de los equipos de relaciones públicas del sector tecnológico.
Para Strait, las relaciones públicas del sector tecnológico crean expectativas tan grandes que conducen a “una pérdida de confianza pública, como hemos visto una y otra vez” cada vez que la tecnología no está a la altura de las expectativas. Dijo que el ciclo de publicidad también obstaculiza las conversaciones honestas sobre los límites reales y el potencial de las nuevas tecnologías.
Stilgoe fue más allá y lo describió como una “búsqueda de atención” y un intento de “privatizar el progreso, lo que lo hace casi inútil como guía para cualquier discusión sobre lo que podemos hacer”. [do]”.