En septiembre del año pasado, la unidad de nube de Google investigó el uso de inteligencia artificial para ayudar a una empresa financiera a decidir a quién prestar dinero. Rechazó la idea del cliente después de semanas de discusiones internas, considerando que el proyecto era demasiado riesgoso desde el punto de vista ético porque la tecnología de inteligencia artificial podría perpetuar prejuicios como los relacionados con la raza y el género.
Desde principios del año pasado, Google también ha bloqueado nuevas funciones de inteligencia artificial que analizan emociones, por temor a la insensibilidad cultural, mientras que Microsoft tiene un software limitado que imita las voces e IBM ha rechazado la solicitud de un cliente de un sistema avanzado de reconocimiento facial.
Todas estas tecnologías han sido frenadas por grupos de ejecutivos u otros líderes, según entrevistas con jefes de ética de inteligencia artificial en los tres gigantes tecnológicos de EE. UU.
Informados aquí por primera vez, sus vetos y las deliberaciones que los llevaron reflejan un impulso incipiente en toda la industria para equilibrar la búsqueda de sistemas de IA rentables con una mayor consideración de la responsabilidad social.
“Hay oportunidades y daños, y nuestro trabajo es maximizar las oportunidades y minimizar los daños”, dijo Tracy Pizzo Frey, quien forma parte de dos comités de ética de Google Cloud como directora ejecutiva de IA responsable.
Los juicios pueden ser difíciles.
Microsoft, por ejemplo, ha tenido que equilibrar el beneficio de usar su tecnología de imitación de voz para restaurar el habla de las personas con impedimentos del habla frente a riesgos como la habilitación de deepfakes políticos, dijo Natasha Crampton, directora de inteligencia artificial de la empresa.
Los activistas de derechos argumentan que las decisiones con consecuencias potencialmente amplias para la sociedad no deben tomarse solo internamente. Argumentan que los comités de ética no pueden ser verdaderamente independientes y su transparencia pública está limitada por presiones competitivas.
Jascha Galaski, un oficial de defensa de la Unión de Libertades Civiles para Europa, ve la supervisión externa como el camino a seguir, y las autoridades estadounidenses y europeas están elaborando reglas de manera efectiva para el área naciente.
Si los comités corporativos de ética de IA “se vuelven verdaderamente transparentes e independientes, y todo esto es muy utópico, entonces esto podría ser incluso mejor que cualquier otra solución, pero no creo que sea realista”, dijo Galaski.
Las empresas dijeron que agradecerían una regulación clara sobre el uso de la inteligencia artificial y que esto era esencial para la confianza del público y del cliente, similar a las regulaciones de seguridad de los automóviles. Dijeron que también les interesaba económicamente actuar de manera responsable.
Sin embargo, están interesados en que cualquier regla sea lo suficientemente flexible para mantenerse al día con la innovación y los nuevos dilemas que crea.
En medio de las complejas consideraciones que vendrán, IBM dijo a Reuters que su Junta de Ética de IA ha comenzado a discutir cómo supervisar una frontera emergente: implantes y dispositivos portátiles que conectan las computadoras al cerebro.
Estas neurotecnologías podrían ayudar a las personas con discapacidades a controlar el movimiento, pero plantean preocupaciones como la posibilidad de que los piratas informáticos manipulen los pensamientos, dijo Christina Montgomery, directora de privacidad de IBM.
La IA puede ver tu dolor
Las empresas de tecnología reconocen que hace solo cinco años estaban implementando servicios de inteligencia artificial como chatbots y etiquetas de fotos con pocas garantías éticas y abordando el uso indebido o los resultados sesgados con actualizaciones posteriores.
Pero a medida que aumentaba el escrutinio político y público sobre las fallas de la inteligencia artificial, Microsoft en 2017 y Google e IBM en 2018 establecieron comités de ética para revisar los nuevos servicios desde el principio.
Google dijo que se le presentó el dilema del préstamo de dinero en septiembre pasado cuando una firma de servicios financieros pensó que la inteligencia artificial podría evaluar la solvencia de las personas mejor que otros métodos.
El proyecto parecía adecuado para Google Cloud, cuya experiencia en el desarrollo de herramientas de inteligencia artificial que ayudan en áreas como la detección de transacciones anómalas ha atraído a clientes como Deutsche Bank, HSBC y BNY Mellon.
La unidad de Google predijo que la puntuación de crédito impulsada por la inteligencia artificial podría convertirse en un mercado con un valor de miles de millones de dólares al año y quería establecerse.
Sin embargo, su comité de ética de unos 20 gerentes, científicos sociales e ingenieros que examinan posibles acuerdos votaron unánimemente en contra del proyecto en una reunión de octubre, dijo Pizzo Frey.
El sistema de inteligencia artificial necesitaría aprender de los datos y modelos anteriores, concluyó el comité, arriesgándose así a repetir prácticas discriminatorias en todo el mundo contra las personas de color y otros grupos marginados.
Además, el comité, conocido internamente como “Lemonaid”, ha adoptado una política para omitir todos los acuerdos de servicios financieros relacionados con la solvencia hasta que se resuelvan esos problemas.
Lemonaid había rechazado tres propuestas similares el año anterior, incluida una compañía de tarjetas de crédito y un prestamista comercial, y Pizzo Frey y su contraparte de ventas estaban ansiosos por una decisión más amplia sobre el asunto.
Google también dijo que su segundo comité de ética en la nube, conocido como Iced Tea, examinó este año un servicio lanzado en 2015 para clasificar las fotos de personas en función de cuatro expresiones: alegría, dolor, ira y sorpresa.
La medida siguió a un fallo el año pasado del comité de ética de Google, el Advanced Technology Review Council (ATRC), que bloqueó nuevos servicios relacionados con la lectura de emociones.
El ATRC, más de una docena de altos ejecutivos e ingenieros, ha determinado que la inferencia de emociones puede ser insensible porque las señales faciales se asocian de manera diferente con los sentimientos en todas las culturas, entre otras razones, dijo Jen Gennai, fundadora y directora del equipo de innovación responsable de Google.
Iced Tea ha bloqueado 13 emociones planeadas para la herramienta Cloud, incluida la vergüenza y la satisfacción, y pronto podría abandonar el servicio por completo a favor de un nuevo sistema que describiría los movimientos como fruncir el ceño y sonreír, sin tratar de interpretarlos, dijeron Gennai y Pizzo Frey. .
Voces y rostros
Microsoft, mientras tanto, desarrolló un software que podría reproducir la voz de alguien a partir de una muestra corta, pero el panel de usos sensibles de la compañía pasó más de dos años discutiendo la ética en torno a su uso y consultó. Reuters.
Dijo que el panel, especialistas en campos como derechos humanos, ciencia de datos e ingeniería, finalmente dio luz verde para el lanzamiento completo de Custom Neural Voice en febrero de este año. Pero ha impuesto restricciones sobre su uso, incluido que se verifica el consentimiento del sujeto y un equipo con “campeones de IA responsable” capacitados en la política de la empresa aprueba las compras.
La junta directiva de IBM para la inteligencia artificial, compuesta por alrededor de 20 líderes departamentales, luchó con su propio dilema cuando, al comienzo de la pandemia COVID-19, examinó la solicitud de un cliente de personalizar la tecnología de reconocimiento facial para detectar fiebres y cubrirse el rostro.
Montgomery dijo que la junta, de la que es copresidente, rechazó la invitación y concluyó que las verificaciones manuales hubieran sido suficientes con menos intrusión en la privacidad porque las fotos no se guardarían para ninguna base de datos de inteligencia artificial.
Seis meses después, IBM anunció la suspensión del servicio de reconocimiento facial.
Ambiciones insatisfechas
En un esfuerzo por proteger la privacidad y otras libertades, los legisladores de la UE y los EE. UU. Están aplicando controles de gran alcance sobre los sistemas de inteligencia artificial.
La Ley de Inteligencia Artificial de la UE, que se espera que se apruebe el próximo año, evitaría el reconocimiento facial en tiempo real en los espacios públicos y requeriría que las empresas de tecnología verifiquen las aplicaciones de alto riesgo, como las que se usan en la contratación, en la puntuación. Crédito y ley. aplicación.
El congresista estadounidense Bill Foster, quien celebró audiencias sobre cómo los algoritmos promueven la discriminación en los servicios financieros y la vivienda, dijo que las nuevas leyes para gobernar la inteligencia artificial garantizarán un campo uniforme para los proveedores.
“Cuando le pide a una empresa que recolecte ganancias para lograr objetivos sociales, le dice: ‘¿Qué pasa con nuestros accionistas y nuestros competidores?’ Es por eso que necesita una regulación sofisticada “, dijo el demócrata de Illinois.
“Puede haber áreas tan sensibles que verá que las empresas tecnológicas se quedan deliberadamente al margen hasta que existan reglas de tránsito claras”.
De hecho, es posible que algunos avances de la IA simplemente estén en suspenso hasta que las empresas puedan abordar los riesgos éticos sin dedicar enormes recursos de ingeniería.
Después de que Google Cloud rechazó la solicitud de IA financiera personalizada en octubre pasado, el comité de Lemonaid le dijo al equipo de ventas que la unidad tiene como objetivo comenzar a desarrollar aplicaciones relacionadas con el crédito algún día.
En primer lugar, la investigación sobre la lucha contra el sesgo injusto debe cumplir con las ambiciones de Google Cloud de aumentar la inclusión financiera a través de tecnología “altamente sensible”, afirma la política al personal.
“Hasta ese momento, no podemos implementar soluciones”.
© Thomson Reuters 2021
.