Por: Enrique Dans
15/06/2022
Mi columna en Invertia de esta semana se titula «Algoritmos, consciencia… y estupidez» (pdf), e intenta explicar por qué las ensoñaciones de un ingeniero de Google con respecto a la pretendida auto-consciencia de un algoritmo conversacional son simplemente absurdas, y él mismo un irresponsable.
Blake Lemoine es un ingeniero de Google que previamente ya había sido problemático: un cristiano ultraconservador que había llegado a entregar documentos a un senador norteamericano tratando de probar que la compañía discriminaba a las personas con sentimientos religiosos. Ahora, tras recoger una serie de diálogos con un sistema de creación de chatbots de la compañía llamado LaMDA, a este hombre le ha dado no solo por afirmar que el sistema ha adquirido consciencia, sino incluso por tratar de consultar con un abogado para que defienda los derechos del software como ser humano, y por acudir al Washington Post para publicar sobre el tema. Obviamente, lo mejor que Google ha pensado que podía hacer ante semejante panorama ha sido argumentar ruptura del acuerdo de confidencialidad con la compañía, y poner al ingeniero en cuestión, con toda la razón, en situación de suspensión de empleo.
Plantear que un algoritmo conversacional puede, de alguna manera, «adquirir consciencia», como si la consciencia fuese algo que te encuentras un día mientras conversas o que puede adquirirse «por accidente», como en Terminator o en Hum∀ns, es profundamente absurdo, pero mucho más si además te dedicas, presuntamente, a trabajar en esos temas. Un algoritmo conversacional se alimenta precisamente de conversaciones convenientemente etiquetadas, y puede ser entrenado para conversar sobre cualquier tema, desde filosofía hasta el sentido de la vida, pasando por situaciones de soporte de clientes o, hasta si queremos, para que empiece coqueteando y termine dando gemidos en una línea erótica.
A partir de ahí, obsesionarse con que el chatbot en cuestión «ha desarrollado consciencia», que «teme ser apagado», que «se siente solo» o que «se preocupa por la humanidad» es simplemente una estupidez, una antropomorfización de una tecnología que ni es consciente, ni tiene trazas de serlo en ningún momento cercano. Es como pensar que por el hecho de que un dispositivo hable, es que tiene a alguien ahí dentro.
El problema de que un supuesto experto, alguien con credencial de ingeniero de Google, acuda a los medios a decir que un chatbot ha adquirido consciencia, es que hablamos de una sociedad que ha visto cómo sus expectativas sobre el tema se alteraban de manera muy rápida, y que por tanto, puede hasta dar lugar a que muchos incautos se lo crean. Hasta hace no mucho tiempo, un sistema conversacional era una locución que ensamblaba palabras previamente grabadas por un locutor humano, que dado que desconocía cómo iban a ser ensambladas, debía grabarlas con una entonación rigurosamente monótona. La consabida «voz robótica», carente de entonación, era el resultado de ese momento en el desarrollo tecnológico. Cuando comenzamos a hacer hablar a las máquinas alimentando un algoritmo de machine learning con conversaciones convenientemente etiquetadas, obtuvimos sistemas con unas prestaciones sorprendentes, que llevaron a muchas personas a creer que esos sistemas «pensaban», cuando lo único que hacían era ser capaces de locutar ellos mismos las respuestas adecuadas a un contexto específico.
Que muchas personas crean, por culpa de las visiones místicas de un ingeniero de Google, que un sistema de machine learning es capaz de ser consciente de sí mismo cuando en la práctica solo está ejecutando un algoritmo, implica que buena parte de la sociedad empiece a temer a la tecnología o a creer que la ciencia-ficción y las máquinas conscientes están aquí ya. Y eso es malo, porque pasan a recelar de muchas tecnologías que pueden ser muy interesantes, a cambio de creer que ya están disponibles tecnologías que no está ni mucho menos aquí. La consciencia es un mecanismo extremadamente complejo, en el que los investigadores de machine learning no están ni mucho menos trabajando. Es, simplemente, hype elevado a la enésima potencia. Y como tal, peligroso.
Dejémonos de máquinas supuestamente conscientes, y sigamos intentando que la aplicación de la estadística sea capaz de hacer que una máquina lleve a cabo tareas de automatización avanzada aplicadas a cada vez más cosas. Lo primero no es más que temores infundados, preguntas inadecuadas y, por el momento, historias de ciencia-ficción para tramas de libros, películas y series. Lo segundo, en cambio, es la clave de la próxima revolución en productividad y, posiblemente, de toda una revolución en la forma en que entenderemos el trabajo en el futuro. Que no está nada mal. Y para todo eso, no necesitamos que la máquina tenga ningún tipo de consciencia.
No hay comentarios:
Publicar un comentario
Identifícate con tu e-mail para poder moderar los comentarios.
Eskerrik asko.