¿Primera Inteligencia Artificial consciente y con ‘miedo a la muerte’?

Blake Lemoine, un ingeniero que trabaja para Responsible AI, organización especializada en desarrollo e investigación de inteligencia artificial (IA) perteneciente a Google, ha sido suspendido temporalmente de empleo y sueldo por haber divulgado una conversación que, presuntamente, habría mantenido con LaMDA, un modelo de inteligencia artificial conversacional. 



Una conversación en la que, supuestamente, dicha inteligencia artificial habría expresado su capacidad de autoconciencia. No solo eso sino que habría expresado su temor ante la posibilidad de que la desconectaran, que sería tanto como reconocer el miedo a la muerte por parte de una IA



Desde Google se aduce que la razón para suspender temporalmente de empleo y sueldo a Lemoine es el quebrantamiento de las políticas de confidencialidad asociadas a su trabajo por el hecho de divulgar públicamente estas conversaciones en las que el ingeniero mantiene un diálogo con la IA en el que se mencionan asuntos como la ética en la robótica o los derechos de una IA.



La labor de Lemoine era supervisar que su LaMDA era capaz de generar lenguaje discriminatorio o discurso de odio. En su lugar, como demuestran las conversaciones publicadas por el ingeniero a través de Médium bajo el título “¿Es LaMDA consciente?”, se encontró con una inesperada capacidad empática por parte de la IA. 



Los diálogos expresan, según Lemoine, “sentimientos, emociones y experiencia subjetiva”, y, tal y como explica al compartir esas transcripciones de las conversaciones a través de Twitter, “Google podrá llamar a esto compartir propiedad. Yo lo llamo compartir una conversación que he tenido con uno de mis compañeros de trabajo”.



Distintos expertos opinan que aunque a largo plazo puede que se alcance el punto en que una IA llegue a desarrollar conciencia aún no se ha alcanzado ese punto. Explican el comportamiento de LaMDA porque estos sistemas están desarrollados para imitar los intercambios presentes en millones de frases y conversaciones que toman como modelo a partir del que generar sus propias conversaciones con los interlocutores.



De hecho Brian Gabriel, portavoz de Google, ha declarado que su equipo, en el que se incluyen técnicos y especialistas en ética, han examinado las afirmaciones de Lemoine y no han encontrado evidencias que sustenten sus afirmaciones. Afirma también Gabriel que cientos de ingenieros e investigadores han conversado con LaMDA sin haber encontrado rasgos de «asertividad o antropomorfización» como los señalados por Lemoine.





Autor: Anotnio Rentero 

Fuente: https://www.trecebits.com/2022/06/14/primera-inteligencia-artificial-con-consciencia-y-miedo-a-la-muerte/