Fuente: El Mundo
Por Félix Ovejero Lucas
01/09/2023
El estreno de Oppenheimer ha coincidido con el manifiesto firmado por importantes científicos invitando a embridar el desarrollo de la Inteligencia Artificial (IA) ante sus potenciales peligros. Son asuntos serios que merecen alguna reflexión. Como siempre, la mejor manera de abordarla es comenzar con algunas distinciones elementales. Por una parte, está el dominio de la ciencia, que responde a la pregunta: ¿X es verdadero? Por otra, el de la felicidad, el bienestar o la moral, de contornos más imprecisos, que arracima preguntas como: ¿X nos parece bien? ¿X resulta deseable? En el primer lote se incluyen enunciados de largo alcance, como las leyes de la termodinámica, y otros de vuelo rasante, como «la Tierra tiene un satélite». En el segundo, otros más controvertidos como «los recursos deben distribuirse según las necesidades» o «la tortura es condenable».
Se puede dar otro paso no menos firme. Los enunciados científicos no son evaluables moralmente. No cabe condenar por injustas las leyes de Newton ni descalificar la explicación genética de una enfermedad. Y los otros, sujetos a discrepancias, no son resolubles con más ciencia. Podemos coincidir en que el abuso infantil está mal, pero no decir que es falso. Apelar a la superstición «lo condena Dios» es solo resolver una complicación acudiendo a un embrollo. Los debates morales carecen de los criterios de resolución propias de los científicos.
Según algunos, las consideraciones anteriores confirmarían que no hay razón fuera de la ciencia. Y, por lo tanto, no deberíamos entrometernos en sus negociados. Cualquier invitación a frenar el progreso científico por consideraciones morales sería volver al oscurantismo de Belarmino, aquel inquisidor que complicó la vida a Bruno y Galileo. La conclusión me parece precipitada. Pero, antes de argumentarlo, sigamos por terreno firme.
Lo primero: reconocer que la bomba y la IA no son ciencia sino tecnología, ciencia aplicada. Y esta no puede prescindir de la moral. Tecnología son las vacunas, las armas, los puentes y disciplinas enteras, como la medicina o la ingeniera: hacen uso de teorías científicas (físicas, bioquímicas, etc.) para resolver problemas prácticos. Para ver las diferencias ayuda contemplar la ciencia desde otra perspectiva. Así, las teorías también se pueden presentar como enunciados del tipo: «Siempre que sucede C, dadas ciertas condiciones, se produce E». Los economistas dirán que «cuando sube la tasa de interés, si todo lo demás permanece constante, baja la inflación», y los físicos que «si aumentamos la presión, con un volumen constante, aumenta la temperatura». En esas afirmaciones no hay sombra de apreciaciones morales o políticas. No hay esclavismo en el teorema de Pitágoras ni fascismo en la genética.
La tecnología presenta otro guion. Dispone del conocimiento, científico o común, al servicio de requerimientos humanos. Por razones morales o políticas nos parece bien un objetivo y utilizamos el conocimiento para obtenerlo. En este caso, el esquema anterior (siempre que C se produce E) deja paso a otro: deseamos el resultado E, por tanto, debemos crear o construir las condiciones C. El objetivo E depende de valoraciones, de que E nos parece bien: controlar la temperatura; dotar de ingresos a la población; la salud.
En principio, el reparto de responsabilidades es nítido: el político señala lo deseable y el científico se limita a ofrecer la tecnología. No decide los objetivos. Lo deja claro Truman: Oppenheimer no se mancha las manos, sino él. Para «salvar a los muchachos», opta por lanzar la bomba y matar a cientos de miles de japoneses. El científico solo descubre la fusión nuclear o calcula el número de muertos. Lo dicho: «Si se hace C, se produce E». Nada de objetivos colaterales, civiles por lo derecho. Hoy sabemos que Truman mentía, que mataba japoneses para avisar a los rusos. Y todos lo sabían. Lo documenta Peter Watson en su Historia secreta de la bomba atómica. Japón se había atascado al redactar su rendición, en «encontrar una fórmula verbal que les permitiera conservar al emperador». Los americanos rentabilizaron las dudas.
Desgraciadamente, en el presente todo es menos claro. Con 13.000 cabezas nucleares en circulación, sabemos que Truman era un energúmeno miope y que el físico acertó en su previsión. Había una poderosa razón para atender a sus reservas: conocía las consecuencias de su creación. También sabemos que la carrera armamentística es una competencia insensata: una vez desatada nadie se puede apear, aun si para todos sería mejor buscar acuerdos para detenerla. Algo que alcanzará precisión con la teoría de juegos, creación, por cierto, de otro científico también presente en Los Álamos, quizá el más listo de todos, defensor de la bomba H y víctima de la radiación a la que allí se expuso: Von Neumann.
¿Qué ha cambiado? Pues que nuestra ciencia, y la tecnología basada en ella, no son las del siglo XIX. El primer cambio es el paso de la small science a la big science, de la ciencia de lápiz y papel a otra que, hasta en los experimentos más elementales, compromete recursos cada vez mayores: el acelerador de partículas de Los Álamos, el Ciclotrón, es un juguete infantil comparado con los actuales, por ejemplo, el del CERN. Dicho de otro modo: la investigación en la ciencia más básica supone asignar recursos públicos, esto es, establecer prioridades morales y políticas. Siempre ha sido así, pero ahora a gran escala. Más resumido: hasta la comprobación de una teoría es una decisión moral. En realidad, nada nuevo. Por inmorales descartamos los experimentos nazis con humanos o, ahora, con animales.
El segundo cambio afecta a la relación entre ciencia y tecnología: se ha contraído el tiempo entre la aparición de una teoría y sus aplicaciones prácticas. Durante la mayor parte de la historia la técnica no tenía base científica. Catedrales y puentes se levantaban con conocimientos comunes, artesanales. La medicina no tenía otro sostén que la prueba y el error. Un medicamento funcionaba, aunque no se conocían los mecanismos bioquímicos que operaban. Y, cuando se disponía de teorías, sus potenciales aplicaciones tardaban décadas en explorarse. Esos cambios tienen dos implicaciones. El primero, la prioridad de las necesidades: se busca la teoría que pueda ayudar a los objetivos prácticos. Los proyectos de investigación están guiados por requerimientos políticos y morales. Eso, obviamente, presenta límites: el descubrimiento teórico, por descubrimiento, no se conoce antes de disponer de él. Pero eso no quita para que, en la pelea por los recursos, se venda humo. Recuérdenlo cuando lean noticias del tipo «estos resultados permiten pensar en la curación de..».. No se engañen, eso es mercancía trucada para unos políticos que no pueden tasar el producto. Ni ellos ni los ciudadanos comunes; solo los propios científicos, que van a lo suyo. El placer del pensamiento abstracto queda reservado, si acaso, a unos cuantos matemáticos.
La segunda implicación atañe al poder de la nueva tecnociencia. No es lo mismo la hibridación que la ingeniería genética. La primera, la practicada con caballos, perros o plantas, se manejaba con lo que podía, con lo que tenía a mano; la segunda, con lo que quiere: elige genes a la carta. En corto: la nueva técnica tiene un enorme potencial. Para bien, sin duda. La ingeniería genética puede ayudar a combatir hambrunas y acabar con enfermedades. Pero también para mal. Y ese mal es absoluto: el exterminio. Un virus con el genoma modificado puede acabar con la especie en semanas. Una teoría elemental de la decisión racional, que pondera la probabilidad por el riesgo, dada la magnitud de lo que está en juego, obligaría a frenar en seco. Esa teoría, de Bernoulli, resulta demasiado tosca: nadie saldría a la calle porque le puede caer una maceta. Pero, en versiones más sofisticadas, también invita a pensárselo antes de «avanzar a ciegas», sin explorar las consecuencias.
Consideraciones como las anteriores llevaron a genetistas de primera en los 70 del pasado siglo a reclamar una moratoria en investigación. En ciencia básica, no en ingeniería genética. Lo mismo que sucede ahora con los investigadores en IA.
Unas consideraciones morales impecablemente racionales. Porque la ciencia es una parte de la razón, no toda la razón. Es más, preguntas básicas del ejercicio de la investigación, desde «¿está justificado investigar?» hasta «¿esta teoría es verdadera?», en rigor, no son ciencia, sino sobre la ciencia. No nos dicen nada sobre la realidad, sino sobre las teorías.
Así que no, los Oppenheimer del mundo no son Belarminos. O mejor: todos somos Belarminos. Y está bien que así sea.
A R., que aquel día compartió mis temores.
Félix Ovejero es profesor de Filosofía Política y Ciencias Sociales en la Universidad de Barcelona.
No hay comentarios:
Publicar un comentario
Identifícate con tu e-mail para poder moderar los comentarios.
Eskerrik asko.