Afirma que Blake Lemoine violó sus políticas de confidencialidad.
Google ha puesto a uno de sus ingenieros en licencia administrativa pagada por haber violado supuestamente sus políticas de confidencialidad después de que se preocupara de que un sistema de chatbot de IA hubiera alcanzado la capacidad de sentir, informa el Washington Post.
El ingeniero, Blake Lemoine, trabaja para la organización Responsible IA de Google, y estaba probando si su modelo LaMDA genera lenguaje discriminatorio o discurso de odio.
Al parecer, la preocupación del ingeniero surgió de las respuestas convincentes que vio que el sistema de IA generaba sobre sus derechos y la ética de la robótica.
En abril compartió con los ejecutivos un documento titulado «¿Es LaMDA sintiente?» que contenía una transcripción de sus conversaciones con la IA (después de ser puesto de baja, Lemoine publicó la transcripción a través de su cuenta de Medium), que según él muestra que argumenta «que es sintiente porque tiene sentimientos, emociones y experiencia subjetiva.»
Google cree que las acciones de Lemoine relacionadas con su trabajo en LaMDA han violado sus políticas de confidencialidad, informan The Washington Post y The Guardian.
Al parecer, invitó a un abogado para que representara al sistema de IA y habló con un representante de la comisión judicial de la Cámara de Representantes sobre las supuestas actividades poco éticas de Google.
En un post publicado en Medium el 6 de junio, el día en que Lemoine fue puesto en licencia administrativa, el ingeniero dijo que buscó «una cantidad mínima de consultas externas para ayudarme a guiar mis investigaciones» y que la lista de personas con las que había mantenido conversaciones incluía a empleados del gobierno estadounidense.
El gigante de las búsquedas anunció públicamente LaMDA en el Google I/O del año pasado, con lo que espera mejorar sus asistentes conversacionales de IA y lograr conversaciones más naturales.
La empresa ya utiliza una tecnología de modelos lingüísticos similar para la función Smart Compose de Gmail o para las consultas en el motor de búsqueda.
En una declaración concedida a WaPo, un portavoz de Google dijo que «no hay pruebas» de que LaMDA sea sensible. «Nuestro equipo -que incluye a éticos y tecnólogos- ha revisado las preocupaciones de Blake según nuestros Principios de IA y le han informado de que las pruebas no apoyan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sensible (y sí muchas pruebas en contra)», dijo el portavoz Brian Gabriel.
Una entrevista a LaMDA. Google podría llamar a esto compartir la propiedad. Yo lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo.https://t.co/uAE454KXRB
– Blake Lemoine (@cajundiscordian) 11 de junio de 2022
«Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sintiente o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes», dijo Gabriel. «Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases, y pueden rifar sobre cualquier tema fantástico».
«Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos constancia de que nadie más haya hecho afirmaciones tan amplias, o haya antropomorfizado a LaMDA, como lo ha hecho Blake», dijo Gabriel.
Un profesor de lingüística entrevistado por WaPo coincidió en que es incorrecto equiparar las respuestas escritas convincentes con la sensibilidad. «Ahora tenemos máquinas que pueden generar palabras sin sentido, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas», dijo la profesora de la Universidad de Washington Emily M. Bender.
Timnit Gebru, una destacada especialista en ética de la IA que Google despidió en 2020 (aunque el gigante de las búsquedas afirma que renunció), dijo que la discusión sobre la sintiencia de la IA corre el riesgo de «descarrilar» conversaciones éticas más importantes en torno al uso de la inteligencia artificial. «En lugar de discutir los daños de estas empresas, el sexismo, el racismo, el colonialismo de la IA, la centralización del poder, la carga del hombre blanco (la construcción de la buena «AGI» [inteligencia general artificial] para salvarnos mientras lo que hacen es explotar), pasó todo el fin de semana discutiendo la sintiencia», tuiteó. «Misión descarrilante cumplida».
A pesar de sus preocupaciones, Lemoine dijo que tiene la intención de seguir trabajando en la IA en el futuro. «Mi intención es seguir en la IA tanto si Google me mantiene como si no», escribió en un tuit: https://twitter.com/cajundiscordian/status/1536211517384835072