Hace seis meses anunciamos los
Principios de IA de Google, que guían el desarrollo ético y el uso de la inteligencia artificial en nuestras investigaciones y productos. Como complemento de dichos Principios, también publicamos nuestras
Prácticas responsables de IA, un conjunto de recomendaciones y resultados técnicos que actualizamos trimestralmente para compartir con el ecosistema ampliado de IA. Desde entonces, hemos implementado iniciativas y procesos adicionales para asegurarnos de que en la práctica, estamos a la altura de los principios.
Primero, queremos alentar a los equipos en Google a considerar si nuestros Principios de IA afectan sus proyectos y cómo lo hacen. Para ello, hemos establecido varios esfuerzos:
- Capacitaciones basadas en el proyecto Ética en la práctica tecnológica desarrollado en el Centro Markkula para la Ética Aplicada en la Universidad de Santa Clara, con materiales adicionales adaptados a los Principios de IA. El contenido está diseñado para ayudar a los Googlers con conocimientos técnicos y no técnicos a abordar los problemas éticos multifacéticos que surgen en su trabajo. Hasta ahora, más de 100 empleados de Google de diferentes países han tomado el curso y en los próximos trimestres planeamos hacerlo accesible para todos en la compañía.
- Serie de ponentes sobre ética en IA con expertos externos de diferentes países, regiones y disciplinas profesionales. Hasta ahora, hemos tenido ocho sesiones con 11 oradores, que cubren temas que van desde el sesgo en el procesamiento del lenguaje natural (PNL) hasta el uso de la inteligencia artificial en la justicia penal.
- Módulo técnico sobre equidad agregado a nuestro Curso rápido de aprendizaje automático, un curso en línea gratuito que está disponible en 11 idiomas y se ha utilizado para capacitar a más de 21.000 empleados de Google. El módulo de equidad explora cómo el sesgo puede surgir en los datos de capacitación, y las formas de identificarlo y mitigarlo; actualmente está disponible en inglés y próximamente en más idiomas.
Junto con estos esfuerzos para involucrar a los empleados de Google, hemos establecido una estructura de revisión formal para evaluar nuevos proyectos, productos y acuerdos. Las decisiones reflexivas requieren de una consideración cuidadosa y matizada de cómo se aplican los Principios de IA (que son intencionalmente de alto nivel para permitir la flexibilidad a medida que evolucionan la tecnología y las circunstancias), cómo hacer concesiones cuando los principios entran en conflicto y cómo mitigar los riesgos para una circunstancia determinada y en el tiempo adecuado. Organizativamente, la estructura de revisión consta de tres grupos principales:
- Un equipo de innovación responsable que maneja las operaciones diarias y las evaluaciones iniciales. Este grupo incluye investigadores de usuarios, científicos sociales, especialistas en ética, especialistas en derechos humanos, asesores de políticas y privacidad, así como expertos legales que trabajan tanto de tiempo completo como parcial, lo que permite la diversidad e inclusión de perspectivas y disciplinas.
- Un grupo de expertos sénior en una variedad de disciplinas a lo largo de Alphabet que brindan experiencia tecnológica, funcional y en aplicaciones.
- Un consejo de ejecutivos sénior para manejar los problemas más complejos y difíciles, incluidas las decisiones que afectan a múltiples productos y tecnologías.
Hasta el momento, hemos realizado más de 100 revisiones, evaluando la escala, la gravedad y la probabilidad de los mejores y peores escenarios para cada producto y acuerdo. La mayoría de estos casos, como la integración de
las pautas para crear un aprendizaje automático inclusivo en nuestros productos Cloud AutoML, se han alineado con los Principios. Hemos modificado algunos esfuerzos, como la
investigación de lectura de labios para aclarar que el modelo tiene limitaciones fuera de los contextos de asistencia. Y en una pequeña cantidad de casos de uso de producto, como una
API de reconocimiento facial de propósito general, hemos decidido dejar de ofrecer la funcionalidad para antes trabajar en cuestiones importantes de políticas y tecnología.
La variedad y el alcance de los casos considerados hasta ahora nos ayudan a crear un marco para escalar este proceso a lo largo de los productos y tecnologías de Google. Este marco incluirá la creación de un grupo externo de asesores, compuesto por expertos en una variedad de disciplinas, para complementar la gobernanza interna y los procesos descritos anteriormente.
Google está comprometido en promover una consideración cuidadosa de estos importantes temas. Apreciamos el trabajo de los muchos equipos que contribuyen al proceso de revisión a medida que continuamos perfeccionando nuestro enfoque.
Por Kent Walker, Vicepresidente sénior de Asuntos Globales