En el fondo, la inteligencia artificial (IA) es programación computacional que aprende y se adapta. No puede resolver todos los problemas, pero su potencial para mejorar nuestras vidas es profundo. En Google, usamos IA para hacer que los productos sean más útiles, desde correo electrónico libre de spam y
más fácil de redactar, a un asistente digital
al que le puedes hablar de forma natural, a
las fotos que destacan las cosas divertidas para que las disfrutes.
Más allá de nuestros productos, usamos IA para ayudar a las personas a abordar problemas urgentes. Un par de estudiantes de secundaria están construyendo sensores que funcionan por medio de IA para
predecir el riesgo de incendios forestales. Los agricultores lo están usando para controlar la salud de sus rebaños. Los médicos están empezando a usar la IA para ayudar a
diagnosticar el cáncer y
prevenir la ceguera. Estos beneficios son la razón por la cual Google invierte fuertemente en investigación y desarrollo de IA, y hace que las tecnologías de IA estén ampliamente disponibles para otros a través de nuestras herramientas y código abierto.
Reconocemos que una tecnología tan poderosa plantea preguntas igualmente poderosas sobre su uso. La manera en que se desarrolle y use la IA tendrá un impacto significativo en la sociedad por muchos años más. Como líderes en IA, nos sentimos muy responsables de hacerlo bien. Es por eso que hoy estamos anunciamos siete principios para guiar nuestro trabajo en el futuro. Estos no son conceptos teóricos; son estándares concretos que gobernarán de manera activa nuestra investigación y desarrollo de productos e influirán en nuestras decisiones de negocio.
Reconocemos que esta área es dinámica y está evolucionando, por lo que abordaremos nuestro trabajo con humildad, un fuerte compromiso con el involucramiento interno y externo, y la voluntad de adaptar nuestro enfoque a medida que aprendamos con el tiempo.
Objetivos para las aplicaciones de IA
Evaluaremos las aplicaciones de IA con base en los siguientes objetivos. Creemos que la IA debería:
1. Ser socialmente beneficiosa.
El alcance amplificado de las nuevas tecnologías impacta cada vez más a la sociedad en general. Los avances en la IA tendrán impactos transformadores en una amplia gama de áreas, incluidas la atención médica, seguridad, energía, transporte, manufactura y entretenimiento. Al considerar el desarrollo y los usos potenciales de las tecnologías de inteligencia artificial, tomaremos en cuenta una amplia gama de factores sociales y económicos, y procederemos en los casos en los que creamos que los beneficios probables generales exceden sustancialmente los riesgos y las desventajas previsibles.
La IA también mejora nuestra capacidad de comprender el significado del contenido a escala. Nos esforzaremos para que la información precisa y de alta calidad esté disponible fácilmente usando IA, y seguiremos respetando las normas culturales, sociales y legales en los países donde operamos. Además, continuaremos evaluando de manera exhaustiva el momento adecuado para hacer que nuestras tecnologías estén disponibles de forma no comercial.
2. Evitar crear o reforzar un sesgo injusto.
Los algoritmos y conjuntos de datos de IA pueden reflejar, reforzar o reducir los sesgos injustos. Reconocemos que distinguir entre los sesgos justos e injustos no siempre es simple, además de que varían entre culturas y sociedades. Trataremos de evitar los efectos injustos en las personas, particularmente aquellos relacionados con características sensibles tales como raza, identidad étnica, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.
3. Estar construida y probada para ser segura.
Continuaremos desarrollando y aplicando estrictas prácticas de seguridad y protección para evitar resultados no intencionales que generan riesgos de daño. Diseñaremos nuestros sistemas de IA para que sean lo suficientemente cautelosos y trataremos de desarrollarlos de acuerdo con las mejores prácticas en la investigación de seguridad de la IA. En los casos apropiados, probaremos las tecnologías de IA en entornos controlados y supervisaremos su funcionamiento después de su implementación.
4. Ser responsables con las personas.
Diseñaremos sistemas de IA que brinden oportunidades adecuadas para la retroalimentación, explicaciones relevantes y que sean atractivos. Nuestras tecnologías de IA estarán sujetas a la apropiada dirección y control humano.
5. Incorporar principios de diseño de privacidad.
Incorporaremos nuestros principios de privacidad en el desarrollo y uso de nuestras tecnologías de IA. Ofreceremos la oportunidad de recibir aviso y otorgar consentimiento, alentaremos las arquitecturas con garantías de privacidad y brindaremos transparencia y controles sobre el uso de los datos.
6. Mantener altos estándares de excelencia científica.
La innovación tecnológica tiene sus raíces en el método científico y el compromiso con la investigación abierta, el rigor intelectual, la integridad y la colaboración. Las herramientas de IA tienen el potencial de desbloquear nuevos ámbitos de investigación científica y conocimiento en dominios clave como la biología, química, medicina y las ciencias naturales. Aspiramos a altos estándares de excelencia científica en la medida en que trabajamos para progresar en el desarrollo de IA.
Trabajaremos con un grupo de terceros para promover un liderazgo reflexivo en esta área, con un toque riguroso científico y multidisciplinario. También nos comprometemos a compartir el conocimiento de IA de manera responsable mediante la publicación de materiales educativos, mejores prácticas e investigaciones que permitan a más personas desarrollar aplicaciones de IA útiles.
7. Estar disponible para usos que vayan de acuerdo con estos principios.
Muchas tecnologías tienen múltiples usos. Trabajaremos para limitar las aplicaciones potencialmente dañinas o abusivas. A medida que desarrollamos y desplegamos tecnologías de inteligencia artificial, evaluaremos los usos probables tomando en cuenta los siguientes factores:
- Propósito y uso principal: el propósito principal y el uso probable de una tecnología y aplicación, incluyendo qué tan estrecha es la relación de la solución o qué tan adaptable es a un uso dañino
- Naturaleza y singularidad: si estamos haciendo tecnología que es única o disponible de manera general
- Escala: si el uso de esta tecnología tendrá un impacto significativo
- Naturaleza de la participación de Google: si estamos proporcionando herramientas de uso general, integrando herramientas para clientes o desarrollando soluciones a la medida
Aplicaciones de IA que no realizaremos
Adicional a los objetivos anteriormente compartidos, no diseñaremos o desplegaremos IA en las siguientes áreas de aplicación:
- Tecnologías que causan o pueden causar un daño general. Cuando exista un riesgo material de daño, procederemos sólo cuando consideremos que los beneficios superan sustancialmente los riesgos e incorporaremos las restricciones de seguridad apropiadas.
- Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar de manera directa lesiones a las personas.
- Tecnologías que recopilan o usan información para la vigilancia que violan las normas internacionalmente aceptadas.
- Tecnologías cuyo propósito infringe principios de derecho internacional ampliamente aceptados y derechos humanos.
Queremos dejar claro que, si bien no estamos desarrollando IA para su uso en armas, continuaremos trabajando con gobiernos y militares en muchas otras áreas. Éstas incluyen ciberseguridad, capacitación, reclutamiento militar, atención médica para veteranos, así como búsqueda y rescate. Estas colaboraciones son importantes y buscaremos de manera activa más formas de potenciar el trabajo clave de estas organizaciones y mantener seguros a los miembros del servicio y a los civiles.
IA para el largo plazo
Si bien este es el enfoque que elegimos para el desarrollo de la inteligencia artificial, también entendemos que hay espacio para muchas otras voces en esta conversación. A medida que avancen las tecnologías de IA, trabajaremos con una serie de partes interesadas para promover un liderazgo considerado en esta área, recurriendo a enfoques científicamente rigurosos y multidisciplinarios. Y continuaremos compartiendo lo que hemos aprendido sobre las formas de mejorar las tecnologías y prácticas de IA.
Creemos que estos principios son la base correcta para nuestra empresa y el desarrollo futuro de IA. Este enfoque es consistente con los valores establecidos en nuestra Founders´Letter (carta de fundadores) original en 2004. Allí aclaramos nuestra intención de adoptar una perspectiva a largo plazo, incluso aún si eso significa sacrificar ganancias a corto plazo. Lo dijimos entonces, y lo creemos ahora.
Por: Sundar Pichai, CEO Google