¡Hola! Hoy te sumergiré en el fascinante mundo de la Inteligencia Artificial (IA), esa joya tecnológica que, en lugar de ser el villano de película que muchos temen, se está convirtiendo en nuestra aliada para un futuro brillante y próspero. ¿Sueñas con innovaciones científicas revolucionarias, avances médicos y creaciones artísticas deslumbrantes? ¡La IA ya está haciendo de esos sueños una realidad!
Voy a disipar esos miedos, explorar cómo la IA está transformando nuestro mundo y por qué, en lugar de temerle, deberíamos estar celebrando su llegada. Así que ponte cómodo, ya que nos embarcamos en este emocionante viaje para desmantelar mitos y descubrir cómo la IA está esculpiendo un futuro más brillante y emocionante. ¡Sigue leyendo!
En primer lugar, una breve descripción de lo que es la IA: La aplicación de las matemáticas y el código de software para enseñar a los ordenadores a comprender, sintetizar y generar conocimiento de forma similar a como lo hacen las personas. La IA es un programa informático como cualquier otro: se ejecuta, recibe datos, los procesa y genera resultados. El resultado de la IA es útil en una amplia gama de campos, desde el desarrollo de software a la medicina, pasando por el derecho y las artes creativas. Es propiedad de las personas y está controlada por ellas, como cualquier otra tecnología.
Una descripción más breve de lo que no es la IA: Software asesino y robots que cobran vida y deciden asesinar a la raza humana o arruinarlo todo, como en las películas.
Una descripción aún más breve de lo que podría ser la IA: Una forma de mejorar todo lo que nos importa.
Por qué la IA puede mejorar todo lo que nos importa
La conclusión central más validada de las ciencias sociales a lo largo de muchas décadas y miles de estudios es que la inteligencia humana mejora una amplia gama de resultados vitales. Las personas más inteligentes obtienen mejores resultados en casi todos los ámbitos de actividad: logros académicos, rendimiento laboral, situación profesional, ingresos, creatividad, salud física, longevidad, aprendizaje de nuevas habilidades, gestión de tareas complejas, liderazgo, éxito empresarial, resolución de conflictos, comprensión lectora, toma de decisiones financieras, comprensión de las perspectivas de los demás, artes creativas, resultados en la crianza de los hijos y satisfacción vital.
Además, la inteligencia humana es la palanca que hemos utilizado durante milenios para crear el mundo en que vivimos hoy: ciencia, tecnología, matemáticas, física, química, medicina, energía, construcción, transporte, comunicación, arte, música, cultura, filosofía, ética, moral. Sin la aplicación de la inteligencia en todos estos ámbitos, todos seguiríamos viviendo en chozas de barro, arañando una mísera existencia de agricultura de subsistencia. En cambio, hemos utilizado nuestra inteligencia para elevar nuestro nivel de vida del orden de 10.000 veces en los últimos 4.000 años.
Dios los bendijo y les dijo: «Sean fecundos y multiplíquense. Llenen la tierra y sométanla. Ejerzan dominio sobre los peces del mar, sobre las aves del cielo y sobre todo ser viviente que se mueve1 sobre la tierra» Genesis 1:28
El Señor Dios tomó al hombre y lo puso en el huerto del Edén para que lo cultivara y lo cuidara. Genesis 2:15
Lo que la IA nos ofrece es la oportunidad de aumentar profundamente la inteligencia humana para que todos estos resultados de la inteligencia (y muchos otros, desde la creación de nuevas medicinas hasta formas de resolver el cambio climático o tecnologías para llegar a las estrellas) sean mucho, mucho mejores a partir de ahora.
El aumento de la inteligencia humana mediante la IA ya ha comenzado: la IA ya está a nuestro alrededor en forma de sistemas de control informático de muchos tipos, ahora se está intensificando rápidamente con los modelos de grandes lenguajes de IA como ChatGPT, y se acelerará muy rápidamente a partir de ahora, si se lo permitimos.
En nuestra nueva era de IA:
Cada niño tendrá un tutor de IA que será infinitamente paciente, infinitamente compasivo, infinitamente informado, infinitamente útil. El tutor de IA estará al lado de cada niño en cada paso de su desarrollo, ayudándole a maximizar su potencial con una versión digital del amor infinito.
Cada persona tendrá un asistente/entrenador/mentor/formador/asesor/terapeuta de IA que será infinitamente paciente, infinitamente compasivo, infinitamente experto e infinitamente útil. El asistente de IA estará presente en todas las oportunidades y retos de la vida, maximizando los resultados de cada persona.
Todos los científicos tendrán un asistente/colaborador/socio de IA que ampliará enormemente el alcance de sus investigaciones y logros científicos. Todos los artistas, ingenieros, empresarios, médicos y cuidadores tendrán lo mismo en sus mundos.
Todos los líderes -directivos, funcionarios, presidentes de organizaciones sin ánimo de lucro, entrenadores deportivos, profesores- tendrán lo mismo. Los efectos de magnificación de las mejores decisiones de los líderes entre las personas a las que dirigen son enormes, por lo que este aumento de inteligencia puede ser el más importante de todos.
El crecimiento de la productividad en toda la economía se acelerará drásticamente, impulsando el crecimiento económico, la creación de nuevas industrias, la creación de nuevos puestos de trabajo y el crecimiento salarial, y dando lugar a una nueva era de mayor prosperidad material en todo el planeta. Los avances científicos y las nuevas tecnologías y medicinas se expandirán espectacularmente, a medida que la IA nos ayude a descifrar mejor las leyes de la naturaleza y a aprovecharlas en nuestro beneficio. Las artes creativas entrarán en una edad de oro, a medida que los artistas, músicos, escritores y cineastas mejorados por la IA adquieran la capacidad de hacer realidad sus visiones mucho más rápido y a mayor escala que nunca.
Incluso creo que la IA va a mejorar el conflicto bélico, cuando tenga que ocurrir, reduciendo drásticamente las tasas de mortalidad en tiempos de guerra. Todas las guerras se caracterizan por decisiones terribles tomadas bajo intensa presión y con información muy limitada por líderes humanos muy limitados. Ahora, los mandos militares y los líderes políticos contarán con asesores de IA que les ayudarán a tomar decisiones estratégicas y tácticas mucho más acertadas, minimizando el riesgo, el error y el derramamiento innecesario de sangre.
En resumen, cualquier cosa que las personas hagan hoy con su inteligencia natural podrá hacerse mucho mejor con la IA, y podremos afrontar nuevos retos que han sido imposibles de abordar sin ella, desde curar todas las enfermedades hasta lograr viajes interestelares.
Y no se trata sólo de inteligencia. Quizá la cualidad más subestimada de la IA sea lo humanizadora que puede llegar a ser. El arte de la IA da libertad para crear y compartir sus ideas artísticas a personas que, de otro modo, carecerían de conocimientos técnicos. Hablar con un amigo empático de IA mejora realmente su capacidad para manejar la adversidad. Y los chatbots médicos de IA ya son más empáticos que sus homólogos humanos. En lugar de hacer que el mundo sea más duro y mecanicista, la IA infinitamente paciente y comprensiva hará que el mundo sea más cálido y agradable.
Es mucho lo que está en juego. Las oportunidades son profundas. Es muy posible que la IA sea lo más importante (y lo mejor) que nuestra civilización haya creado jamás, sin duda al mismo nivel que la electricidad y los microchips, y probablemente más allá de ellos.
El desarrollo y la proliferación de la IA, lejos de ser un riesgo que debamos temer, es una obligación moral que tenemos con nosotros mismos, con nuestros hijos y con nuestro futuro.
Con la IA deberíamos vivir en un mundo mucho mejor, y ahora podemos hacerlo.
Así que… ¿Por qué tanto pánico?
En contraste con esta visión positiva, la conversación pública sobre la IA está actualmente plagada de miedo histérico y paranoia. Se afirma que la IA nos matará a todos, arruinará nuestra sociedad, nos quitará el trabajo, provocará desigualdades devastadoras y permitirá a los malos hacer cosas horribles. ¿Qué explica esta divergencia en los resultados potenciales, desde la utopía cercana a la horripilante distopía?
Históricamente, todas las nuevas tecnologías importantes, desde el alumbrado eléctrico a los automóviles, pasando por la radio o Internet, han provocado un pánico moral, un contagio social que convence a la gente de que la nueva tecnología va a destruir el mundo, la sociedad o ambas cosas. Las buenas personas del Archivo de los Pesimistas han documentado estos pánicos morales impulsados por la tecnología a lo largo de las décadas; su historia deja bien claro el patrón. Resulta que el pánico actual ni siquiera es el primero de la IA.
Es cierto que muchas nuevas tecnologías han tenido malos resultados, a menudo las mismas tecnologías que han sido enormemente beneficiosas para nuestro bienestar. Así que la mera existencia de un pánico moral no significa que no haya nada de lo que preocuparse. Pero el pánico moral es, por su propia naturaleza, irracional: toma lo que puede ser una preocupación legítima y la infla hasta un nivel de histeria que, irónicamente, hace más difícil enfrentarse a preocupaciones realmente serias.
Y vaya que si tenemos pánico moral a la IA. Este pánico moral ya está siendo utilizado como fuerza motivadora por diversos actores para exigir medidas políticas: nuevas restricciones, normativas y leyes sobre la IA. Estos actores, que están haciendo declaraciones públicas extremadamente dramáticas sobre los peligros de la IA (alimentando y exacerbando aún más el pánico moral) se presentan a sí mismos como abnegados defensores del bien público. Pero, ¿lo son?
¿Tienen razón o no?
Los bautistas y los contrabandistas de alcohol de AI
Los economistas han observado desde hace tiempo un patrón en los movimientos reformistas de este tipo. Los actores de este tipo de movimientos se dividen en dos categorías: los “bautistas” y los “contrabandistas”, tomando como ejemplo histórico la prohibición del alcohol en Estados Unidos en los años veinte:
Los “bautistas” son los verdaderos reformistas sociales creyentes que sienten legítimamente (de forma profunda y emocional, si no racional) que se necesitan nuevas restricciones, normativas y leyes para evitar el desastre social. En el caso de la prohibición del alcohol, estos actores solían ser literalmente cristianos devotos que consideraban que el alcohol estaba destruyendo el tejido moral de la sociedad. En el caso del riesgo de la IA, estos actores son verdaderos creyentes de que la IA presenta uno u otro riesgo existencial.
Los “contrabandistas” son los oportunistas interesados que se benefician económicamente de la imposición de nuevas restricciones, normativas y leyes que les aíslan de sus competidores. En el caso de la prohibición del alcohol, se trata de los contrabandistas que hicieron una fortuna vendiendo alcohol ilegal a los estadounidenses cuando se prohibió la venta de alcohol legal. En el caso del riesgo de la IA, se trata de directores ejecutivos que pueden ganar más dinero si se erigen barreras normativas que formen un cártel de proveedores de IA bendecidos por el gobierno y protegidos de la competencia de nuevas empresas y de código abierto: la versión en software de los bancos “demasiado grandes para quebrar”.
Un cínico podría sugerir que algunos de los aparentes bautistas son también contrabandistas, concretamente los que cobran por atacar la IA de sus universidades, grupos de reflexión, grupos activistas y medios de comunicación. Si te pagan un sueldo o recibes subvenciones para fomentar el pánico a la IA… probablemente seas un contrabandistas. El problema con los contrabandistas es que ganan. Los bautistas son ideólogos ingenuos, los contrabandistas son operadores cínicos, por lo que el resultado de este tipo de movimientos reformistas suele ser que los contrabandistas consiguen lo que quieren (captura reguladora, aislamiento de la competencia, formación de un cártel) y los bautistas se quedan preguntándose por qué su impulso de mejora social salió tan mal.
Acabamos de vivir un ejemplo asombroso de ello: la reforma bancaria tras la crisis financiera mundial de 2008. Los bautistas nos dijeron que necesitábamos nuevas leyes y normativas para acabar con los bancos “demasiado grandes para quebrar” y evitar que una crisis así volviera a repetirse. Así que el Congreso aprobó la Ley Dodd-Frank de 2010, que se comercializó como la satisfacción del objetivo de los bautistas, pero en realidad fue cooptada por los contrabandistas, o sea, los grandes bancos. El resultado es que los mismos bancos que eran “demasiado grandes para quebrar” en 2008 son mucho, mucho más grandes ahora. Así que, en la práctica, incluso cuando los bautistas son auténticos (e incluso cuando los bautistas tienen razón) son utilizados como tapadera por los manipuladores y venales contrabandistas para beneficiarse a sí mismos.
Y esto es lo que está ocurriendo ahora mismo en el impulso a la regulación de la IA. Sin embargo, no basta con identificar a los actores e impugnar sus motivos. Debemos considerar los argumentos tanto de los bautistas como de los contrabandistas por sus méritos.
Riesgo 1 de la IA: ¿La IA nos matará a todos?
El primer y original riesgo es que la IA decida matar literalmente a la humanidad. El miedo a que la tecnología de nuestra propia creación se levante y nos destruya está profundamente codificado en nuestra cultura. Los griegos expresaron este temor en el Mito de Prometeo: Prometeo trajo el poder destructivo del fuego, y más en general de la tecnología (“techne”), al hombre, por lo que Prometeo fue condenado a tortura perpetua por los dioses. Más tarde, Mary Shelley nos dio a los modernos nuestra propia versión de este mito en su novela Frankenstein, o, El moderno Prometeo, en la que desarrollamos la tecnología para la vida eterna, que luego se levanta y trata de destruirnos. Y, por supuesto, ningún artículo periodístico sobre el pánico a la IA está completo sin una imagen fija de un reluciente robot asesino de ojos rojos de las películas Terminator de James Cameron.
El supuesto propósito evolutivo de esta mitología es motivarnos a considerar seriamente los riesgos potenciales de las nuevas tecnologías: el fuego, después de todo, puede utilizarse para quemar ciudades enteras. Pero así como el fuego fue también la base de la civilización moderna, ya que se utilizó para mantenernos calientes y seguros en un mundo frío y hostil, esta mitología ignora el lado positivo mucho mayor de la mayoría -¿todas? – nuevas tecnologías, y en la práctica inflama la emoción destructiva en lugar del análisis razonado. El hecho de que el hombre pre-moderno se asustara así no significa que nosotros tengamos que hacerlo; en su lugar, podemos aplicar la racionalidad.
Mi opinión es que la idea de que la IA decidirá matar literalmente a la humanidad es un profundo error de categoría. La IA no es un ser vivo que haya sido preparado por miles de millones de años de evolución para participar en la batalla por la supervivencia del más fuerte, como lo son los animales y como lo somos nosotros. Son matemáticas, códigos, ordenadores, construidos por personas, propiedad de personas, utilizados por personas, controlados por personas. La idea de que en algún momento desarrollará una mente propia y decidirá que tiene motivaciones que le llevan a intentar matarnos es una superstición.
En resumen, la IA no quiere, no tiene objetivos, no quiere matarte, porque no está viva. Y la IA es una máquina, no va a cobrar vida más de lo que lo hará tu tostadora. Ahora, obviamente, hay verdaderos creyentes en la IA asesina (bautistas) que están obteniendo una cobertura mediática repentinamente estratosférica por sus aterradoras advertencias, algunos de los cuales afirman haber estado estudiando el tema durante décadas y dicen que ahora están muertos de miedo por lo que han aprendido. Algunos de estos verdaderos creyentes son incluso auténticos innovadores de la tecnología. Estos actores abogan por una serie de restricciones extrañas y extremas sobre la IA, que van desde la prohibición del desarrollo de la IA hasta ataques aéreos militares contra los centros de datos y la guerra nuclear. Argumentan que, dado que la gente como yo no puede descartar futuras consecuencias catastróficas de la IA, debemos asumir una postura de precaución que puede requerir grandes cantidades de violencia física y muerte para prevenir un riesgo existencial potencial.
Mi respuesta es que su postura no es científica: ¿cuál es la hipótesis comprobable? ¿Cómo sabemos cuándo estamos entrando en una zona de peligro? Estas preguntas quedan principalmente sin respuesta, aparte de “¡No se puede demostrar que no ocurrirá!”. De hecho, la postura de estos bautistas es tan poco científica y tan extrema (una teoría de la conspiración sobre las matemáticas y el código) y ya está llamando a la violencia física, que haré algo que normalmente no haría y cuestionaré también sus motivos. Concretamente, creo que están pasando tres cosas:
En primer lugar, recordemos que John Von Neumann respondió al famoso regaño de Robert Julius Oppenheimer sobre su papel en la creación de armas nucleares (que ayudó a poner fin a la Segunda Guerra Mundial y a evitar la Tercera) con: “Algunos se confiesan culpables para atribuirse el pecado”. ¿Cuál es la forma más dramática de reivindicar la importancia del propio trabajo sin que suene abiertamente jactancioso? Esto explica la falta de correspondencia entre las palabras y las acciones de los bautistas que construyen y financian la IA: observen sus acciones, no sus palabras. (Truman fue más duro tras reunirse con Oppenheimer: “No vuelvas a dejar entrar a ese llorón”).
En segundo lugar, algunos de los bautistas son en realidad contrabandistas. Hay toda una profesión de “experto en seguridad de la IA”, “ético de la IA”, “investigador de riesgos de la IA”. Se les paga por ser paranoicos, y sus declaraciones deberían procesarse adecuadamente.
En tercer lugar, California es justamente famosa por sus miles de sectas, desde EST hasta el Templo del Pueblo, desde Heaven’s Gate hasta la Familia Manson. Muchas de estas sectas, aunque no todas, son inofensivas, y puede que incluso sirvan para algo a las personas alienadas que encuentran hogar en ellas. Pero algunas son muy peligrosas, y a las sectas les cuesta mucho cruzar la línea que conduce a la violencia y la muerte.
Y la realidad, que es obvia para todo el mundo en el Área de la Bahía pero probablemente no fuera de ella, es que el “riesgo de la IA” se ha convertido en un culto, que ha emergido de repente a la luz del día de la atención de la prensa mundial y de la conversación pública. Este culto ha atraído no sólo a personajes marginales, sino también a algunos expertos reales del sector y a un número no pequeño de donantes adinerados, entre ellos, hasta hace poco, Sam Bankman-Fried. Y ha desarrollado toda una panoplia de comportamientos y creencias de culto. No es que tengan conocimientos secretos que hagan lógico su extremismo, sino que se han dejado llevar por el frenesí y realmente son… extremadamente extremistas.
Resulta que este tipo de culto no es nuevo: existe una larga tradición occidental de milenarismo, que genera cultos apocalípticos. El culto del riesgo de la IA tiene todas las características de un culto milenarista del apocalipsis. De Wikipedia, con añadidos míos:
“El milenarismo es la creencia de un grupo o movimiento (los catastrofistas del riesgo de IA) en una próxima transformación fundamental de la sociedad (la llegada de la IA), tras la cual todas las cosas cambiarán (utopía de la IA, distopía y/o fin del mundo). Sólo los acontecimientos dramáticos (prohibiciones de la IA, ataques aéreos a los centros de datos, ataques nucleares a la IA no regulada) se consideran capaces de cambiar el mundo (impedir la IA) y se prevé que el cambio será provocado, o sobrevivido, por un grupo de devotos y dedicados. En la mayoría de los escenarios milenaristas, el desastre o la batalla que se avecina (el apocalipsis de la IA, o su prevención) irá seguido de un mundo nuevo y purificado (la prohibición de la IA) en el que los creyentes serán recompensados (o al menos se reconocerá que han estado en lo cierto todo el tiempo)”.
Este patrón de culto al apocalipsis es tan obvio que me sorprende que no lo vea más gente. No me malinterpreten, es divertido oír hablar de las sectas, su material escrito suele ser creativo y fascinante, y sus miembros resultan atractivos en las cenas y en la televisión. Pero sus creencias extremas no deberían determinar el futuro de las leyes y la sociedad, obviamente no.
Riesgo 2 de la IA: ¿Arruinará la IA nuestra sociedad?
El segundo riesgo de la IA, ampliamente debatido, es que arruine nuestra sociedad al generar productos tan “nocivos”, por utilizar la nomenclatura de este tipo de agoreros, que causen un daño profundo a la humanidad, aunque no nos maten literalmente. Versión resumida: Si no nos matan los robots asesinos, lo harán la incitación al odio y la desinformación.
Se trata de una preocupación doomer relativamente reciente que se ramificó a partir del movimiento del “riesgo de la IA” que he descrito antes, y que en cierto modo se apoderó de él. De hecho, la terminología del riesgo de la IA ha cambiado recientemente de “seguridad de la IA” (el término utilizado por quienes temen que la IA nos mate literalmente) a “alineación de la IA” (el término utilizado por quienes están preocupados por los “daños” sociales). Los primeros partidarios de la seguridad de la IA se sienten frustrados por este cambio, aunque no saben cómo volver a meterla en el cajón: ahora abogan por que el verdadero tema del riesgo de la IA pase a llamarse “AI notkilleveryoneism“, que aún no ha sido ampliamente adoptado pero al menos es claro.
La pista sobre la naturaleza de la afirmación del riesgo social de la IA es su propio término, “alineación con la IA”. ¿Alineación con qué? Con los valores humanos. ¿Los valores humanos de quién? Ah, ahí es donde las cosas se complican. Resulta que he asistido en primera fila a una situación análoga: la guerra de la “confianza y la seguridad” en las redes sociales. Como es obvio, los servicios de las redes sociales llevan muchos años recibiendo presiones masivas de gobiernos y activistas para que prohíban, restrinjan, censuren y supriman una amplia gama de contenidos. Y las mismas preocupaciones sobre la “incitación al odio” (y su contrapartida matemática, el “sesgo algorítmico”) y la “desinformación” se están trasladando directamente del contexto de las redes sociales a la nueva frontera de la “alineación de la IA”.
Mis grandes aprendizajes de la guerra de las redes sociales son:
Por un lado, no existe una posición absolutista sobre la libertad de expresión. En primer lugar, todos los países, incluido Estados Unidos, ilegalizan al menos algunos contenidos. En segundo lugar, hay ciertos tipos de contenidos, como la pornografía infantil y la incitación a la violencia en el mundo real, que prácticamente todas las sociedades consideran prohibidos, sean legales o no. Por tanto, cualquier plataforma tecnológica que facilite o genere contenidos (expresión) va a tener algunas restricciones.
Por otro lado, la pendiente resbaladiza no es una falacia, es inevitable. Una vez establecido un marco para restringir incluso contenidos atrozmente terribles (por ejemplo, por incitación al odio, una palabra hiriente específica, o por desinformación, afirmaciones obviamente falsas como “el Papa ha muerto”), una gama asombrosamente amplia de organismos gubernamentales y grupos de presión activistas y entidades no gubernamentales se pondrán en marcha y exigirán niveles cada vez mayores de censura y supresión de cualquier discurso que consideren amenazador para la sociedad y/o sus propias preferencias personales. Lo harán hasta el punto de cometer delitos graves. En la práctica, este ciclo puede durar aparentemente para siempre, con el apoyo entusiasta de los vigilantes autoritarios instalados en nuestras estructuras de poder de élite. Esto ha estado ocurriendo en cascada durante una década en los medios sociales y, con sólo ciertas excepciones, sigue haciéndose cada vez más ferviente.
Y esta es la dinámica que se ha formado ahora en torno a la “alineación de la IA”. Sus defensores afirman tener la sabiduría para diseñar discursos y pensamientos generados por IA que sean buenos para la sociedad, y para prohibir discursos y pensamientos generados por IA que sean malos para la sociedad. Sus oponentes afirman que la policía del pensamiento es impresionantemente arrogante y presuntuosa (y a menudo abiertamente criminal, al menos en Estados Unidos) y que, de hecho, pretende convertirse en un nuevo tipo de dictadura autoritaria del discurso fusionada gobierno-empresa-academia, sacada directamente de las páginas de 1984 de George Orwell.
Dado que los defensores tanto de la “confianza y seguridad” como de la “alineación de la IA” se agrupan en la estrechísima franja de la población mundial que caracteriza a las élites costeras estadounidenses -que incluye a muchas de las personas que trabajan en la industria tecnológica y escriben sobre ella-, muchos de mis lectores se encontrarán preparados para argumentar que es necesario imponer restricciones drásticas a la producción de IA para evitar la destrucción de la sociedad. No voy a intentar disuadirles de esto ahora, simplemente afirmaré que esta es la naturaleza de la demanda, y que la mayoría de la gente en el mundo ni está de acuerdo con su ideología ni quiere verles ganar.
Si no estás de acuerdo con la moralidad de nicho imperante que se está imponiendo tanto en los medios sociales como en la IA a través de códigos de expresión cada vez más intensos, también deberías darte cuenta de que la lucha sobre lo que la IA puede decir/generar será incluso más importante -por mucho- que la lucha sobre la censura de los medios sociales. Es muy probable que la IA se convierta en la capa de control de todo en el mundo. La forma en que se le permita operar va a importar quizás más que cualquier otra cosa que haya importado nunca. Deberías ser consciente de cómo una pequeña y aislada camarilla de ingenieros sociales partidistas están intentando determinar eso ahora mismo, amparándose en la vieja afirmación de que te están protegiendo.
En resumen, no dejes que la policía del pensamiento suprima la IA.
Riesgo 3 de IA: ¿Nos quitará la IA todos nuestros puestos de trabajo?
El miedo a la pérdida de puestos de trabajo debido a la mecanización, la automatización, la informatización o la IA ha sido un pánico recurrente durante cientos de años, desde la aparición de maquinaria como el telar mecánico. Aunque a lo largo de la historia cada nueva tecnología importante ha generado más puestos de trabajo con salarios más altos, cada oleada de este pánico va acompañada de la afirmación de que “esta vez es diferente”: esta es la vez en que finalmente ocurrirá, esta es la tecnología que finalmente asestará el golpe de gracia al trabajo humano. Y sin embargo, nunca ocurre.
En el pasado reciente hemos vivido dos ciclos de pánico al desempleo provocados por la tecnología: el pánico a la subcontratación de la década de 2000 y el pánico a la automatización de la década de 2010. A pesar de que muchos tertulianos, expertos e incluso ejecutivos de la industria tecnológica golpearon la mesa a lo largo de ambas décadas diciendo que el desempleo masivo estaba cerca, a finales de 2019 (justo antes del inicio de COVID) el mundo tenía más puestos de trabajo con salarios más altos que nunca en la historia. Sin embargo, esta idea errónea no morirá. Y efectivamente, ha vuelto.
Esta vez, por fin tenemos la tecnología que va a ocupar todos los puestos de trabajo y hacer superfluos a los trabajadores humanos: la IA real. Seguramente esta vez la historia no se repetirá, y la IA causará desempleo masivo (y no un rápido crecimiento económico, laboral y salarial) ¿verdad? No, eso no va a suceder, y de hecho la IA, si se le permite desarrollarse y proliferar en toda la economía, puede causar el auge económico más dramático y sostenido de todos los tiempos, con el correspondiente crecimiento récord de empleo y salarios, exactamente lo contrario de lo que se teme. Y he aquí por qué.
El principal error que siguen cometiendo los catastrofistas de la automatización y la destrucción de empleo es la falacia de la masa de trabajo. Esta falacia es la noción incorrecta de que hay una cantidad fija de trabajo por hacer en la economía en un momento dado, y que o lo hacen las máquinas o lo hacen las personas, y si lo hacen las máquinas, no habrá trabajo para las personas.
La falacia de la masa de trabajo se deriva naturalmente de una intuición ingenua, pero en este caso la intuición ingenua es errónea. Cuando se aplica la tecnología a la producción, obtenemos un crecimiento de la productividad: un aumento de la producción generado por una reducción de los insumos. El resultado es un descenso de los precios de los bienes y servicios. Al bajar los precios de los bienes y servicios, pagamos menos por ellos, lo que significa que ahora tenemos un poder adquisitivo extra con el que comprar otras cosas. Esto aumenta la demanda en la economía, lo que impulsa la creación de nueva producción (incluidos nuevos productos y nuevas industrias), que a su vez crea nuevos puestos de trabajo para las personas que fueron sustituidas por máquinas en empleos anteriores. El resultado es una economía más grande, con mayor prosperidad material, más industrias, más productos y más empleos.
Pero las buenas noticias no acaban ahí. También obtenemos salarios más altos. Esto se debe a que, a nivel del trabajador individual, el mercado fija la remuneración en función de la productividad marginal del trabajador. Un trabajador de una empresa tecnológica será más productivo que un trabajador de una empresa tradicional. El empresario pagará más dinero a ese trabajador, ya que ahora es más productivo, o lo hará otro empresario, por puro interés propio. El resultado es que la tecnología introducida en una industria generalmente no sólo aumenta el número de puestos de trabajo en la industria, sino que también aumenta los salarios.
En resumen, la tecnología permite a las personas ser más productivas. Esto hace que bajen los precios de los bienes y servicios existentes y que suban los salarios. Esto, a su vez, provoca crecimiento económico y crecimiento del empleo, a la vez que motiva la creación de nuevos puestos de trabajo y nuevas industrias. Si se permite que una economía de mercado funcione con normalidad y que la tecnología se introduzca libremente, se trata de un ciclo ascendente perpetuo que nunca termina. Porque, como observó Milton Friedman, “los deseos y las necesidades humanas no tienen fin”: siempre queremos más de lo que tenemos. Una economía de mercado basada en la tecnología es la forma en que nos acercamos a ofrecer todo lo que todo el mundo podría desear, pero nunca hasta el final. Y por eso la tecnología no destruye puestos de trabajo y nunca lo hará.
Estas ideas son tan alucinantes para quienes no las conocen que quizá les lleve algún tiempo asimilarlas. Pero le juro que no me las estoy inventando; de hecho, puede leer todo sobre ellas en los libros de texto de economía habituales. Recomiendo el capítulo La maldición de la maquinaria de Economía en una lección, de Henry Hazlitt, y la satírica Petición del fabricante de velas para que se apague el sol debido a su competencia desleal con la industria de la iluminación, de Frederic Bastiat, aquí modernizada para nuestros tiempos. Pero esta vez es diferente, estarás pensando. Esta vez, con la IA, tenemos la tecnología que puede sustituir TODO el trabajo humano. Pero, utilizando los principios que he descrito antes, piense en lo que significaría que literalmente todo el trabajo humano existente fuera sustituido por máquinas.
Significaría una tasa de despegue del crecimiento de la productividad económica que sería absolutamente estratosférica, mucho más allá de cualquier precedente histórico. Los precios de los bienes y servicios existentes caerían de forma generalizada hasta prácticamente cero. El bienestar de los consumidores se dispararía. El poder adquisitivo de los consumidores se dispararía. Explotaría la nueva demanda en la economía. Los empresarios crearían nuevas industrias, productos y servicios a un ritmo vertiginoso y emplearían al mayor número posible de personas y de inteligencia artificial para satisfacer toda la nueva demanda.
Supongamos que la IA vuelve a sustituir a esa mano de obra. El ciclo se repetiría, impulsando aún más el bienestar de los consumidores, el crecimiento económico y el crecimiento del empleo y los salarios. Sería una espiral recta hacia una utopía material que ni Adam Smith ni Karl Marx se atrevieron a soñar.
Deberíamos sentirnos tan afortunados.
Riesgo 4 de la IA: ¿Conducirá la IA a una desigualdad agobiante?
Hablando de Karl Marx, la preocupación de que la IA se lleve puestos de trabajo nos lleva directamente al siguiente riesgo que se alega, que es: “Vale, supongamos que la IA se lleva todos los puestos de trabajo, ya sea para bien o para mal. ¿No provocaría eso una desigualdad de riqueza masiva y agobiante, ya que los propietarios de la IA cosecharían todas las recompensas económicas y la gente normal no obtendría nada?
Resulta que esta era una afirmación central del marxismo, que los propietarios de los medios de producción (la burguesía) inevitablemente robarían toda la riqueza de la sociedad a las personas que hacen el trabajo real (el proletariado). Esta es otra falacia que simplemente no morirá, no importa cuántas veces sea refutada por la realidad. Pero clavémosle una estaca en el corazón.
El fallo de esta teoría es que, como propietario de una pieza de tecnología, no te interesa quedármela para mi, sino todo lo contrario: te interesa venderla al mayor número posible de clientes. El mayor mercado del mundo para cualquier producto es el mundo entero, los 8.000 millones de seres humanos. Y así, en realidad, cada nueva tecnología (incluso las que empiezan vendiéndose al aire enrarecido de las grandes empresas que pagan mucho o de los consumidores ricos) prolifera rápidamente hasta que está en manos del mayor mercado de masas posible, en última instancia, todo el mundo en el planeta.
El ejemplo clásico de esto fue el llamado “plan secreto” de Elon Musk (que naturalmente publicó abiertamente) para Tesla en 2006:
Paso 1, Construir un coche deportivo [caro]
Paso 2, Usar ese dinero para construir un coche asequible
Paso 3, Usar ese dinero para construir un coche aún más asequible
…que es exactamente lo que ha hecho, convirtiéndose en el hombre más rico del mundo.
Este último punto es clave. ¿Sería Elon aún más rico si hoy sólo vendiera coches a gente rica? No. ¿Sería aún más rico si sólo fabricara coches para sí mismo? Por supuesto que no. No, él maximiza su propio beneficio vendiendo al mayor mercado posible, el mundo. En resumen, todo el mundo lo consigue, como vimos en el pasado no sólo con los coches, sino también con la electricidad, la radio, los ordenadores, Internet, los teléfonos móviles y los motores de búsqueda. Los fabricantes de estas tecnologías están muy motivados para bajar sus precios hasta que todos los habitantes del planeta puedan permitírselas. Esto es precisamente lo que ya está ocurriendo con la IA: por eso se puede utilizar la IA generativa más avanzada no sólo a bajo coste, sino incluso de forma gratuita en Microsoft Bing y Google Bard, y es lo que seguirá ocurriendo. No porque estos proveedores sean tontos o generosos, sino precisamente porque son codiciosos: quieren maximizar el tamaño de su mercado, lo que maximiza sus beneficios.
Así que lo que ocurre es lo contrario de que la tecnología impulse la centralización de la riqueza: en su lugar, los clientes individuales de la tecnología, que en última instancia incluyen a todos los habitantes del planeta, adquieren poder y capturan la mayor parte del valor generado. Al igual que con las tecnologías anteriores, las empresas que construyen la IA (suponiendo que tengan que funcionar en un mercado libre) competirán furiosamente para que esto ocurra. Marx se equivocó entonces, y se equivoca ahora.
Esto no quiere decir que la desigualdad no sea un problema en nuestra sociedad. Lo es, sólo que no está siendo impulsada por la tecnología, sino por lo contrario, por los sectores de la economía que son los más resistentes a las nuevas tecnologías, que tienen la mayor intervención del gobierno para evitar la adopción de nuevas tecnologías como la IA (específicamente la vivienda, la educación y la atención sanitaria). El riesgo real de la IA y la desigualdad no es que la IA cause más desigualdad, sino más bien que no permitamos que la IA se utilice para reducir la desigualdad.
Riesgo 5 de la IA: ¿Conducirá la IA a que gente mala haga cosas malas?
Hasta ahora he explicado por qué cuatro de los cinco riesgos de la IA propuestos con más frecuencia no son reales: la IA no cobrará vida y nos matará, la IA no arruinará nuestra sociedad, la IA no causará desempleo masivo y la IA no causará un aumento ruinoso de la desigualdad. Pero ahora abordemos la quinta, con la que realmente estoy de acuerdo: La IA facilitará que la gente mala haga cosas malas.
En cierto sentido, esto es una tautología. La tecnología es una herramienta. Las herramientas, empezando por el fuego y las piedras, pueden utilizarse para hacer cosas buenas (cocinar alimentos y construir casas) y cosas malas (quemar a la gente y apalearla9. Cualquier tecnología puede usarse para el bien o para el mal. Me parece justo. Y la IA facilitará a criminales, terroristas y gobiernos hostiles hacer cosas malas, sin duda. Esto hace que algunas personas propongan, bueno, en ese caso, no corramos el riesgo, prohibamos la IA ahora antes de que esto pueda suceder. Por desgracia, la IA no es un material físico esotérico difícil de conseguir, como el plutonio. Es todo lo contrario, es el material más fácil de conseguir del mundo: matemáticas y código.
Obviamente, la IA ya está fuera de la bolsa. Se puede aprender a construir IA en miles de cursos gratuitos en línea, libros, artículos y vídeos, y cada día proliferan las implementaciones de código abierto. La IA es como el aire: estará en todas partes. El nivel de opresión totalitaria que se necesitaría para detenerla sería tan draconiano (¿un gobierno mundial que supervisara y controlara todos los ordenadores?) que no nos quedaría sociedad que proteger.En lugar de eso, hay dos formas muy sencillas de abordar el riesgo de que gente mala haga cosas malas con la IA, y es precisamente en ellas en las que deberíamos centrarnos.
En primer lugar, tenemos leyes en los libros para criminalizar la mayoría de las cosas malas que alguien va a hacer con la IA. ¿Hackear el Pentágono? Eso es un delito. ¿Robar dinero de un banco? Es un delito. ¿Crear un arma biológica? Eso es un delito. ¿Cometer un acto terrorista? Eso es un delito. Simplemente podemos centrarnos en prevenir esos delitos cuando podamos, y en perseguirlos cuando no podamos. Ni siquiera necesitamos nuevas leyes: no conozco ningún mal uso real de la IA que se haya propuesto y que no sea ya ilegal. Y si se identifica un nuevo mal uso, lo prohibimos. (Lo que había que demostrar.).
Pero te darás cuenta de lo que se me ha escapado: he dicho que deberíamos centrarnos primero en prevenir los crímenes asistidos por IA antes de que ocurran. Bueno, hay otra forma de prevenir tales acciones, y es utilizando la IA como herramienta defensiva. Las mismas capacidades que hacen que la IA sea peligrosa en manos de los malos con malos objetivos la hacen poderosa en manos de los buenos con buenos objetivos, concretamente los buenos cuyo trabajo es evitar que ocurran cosas malas.
Por ejemplo, si te preocupa que la IA genere personas y vídeos falsos, la respuesta es construir nuevos sistemas en los que las personas puedan verificarse a sí mismas y al contenido real mediante firmas criptográficas. La creación y alteración digital de contenidos reales y falsos ya existía antes de la IA; la respuesta no es prohibir los procesadores de texto y Photoshop (o la IA), sino utilizar la tecnología para construir un sistema que realmente resuelva el problema. Así que, en segundo lugar, hagamos un gran esfuerzo para utilizar la IA con fines buenos, legítimos y defensivos. Pongamos la IA a trabajar en la ciberdefensa, en la defensa biológica, en la caza de terroristas y en todo lo demás que hacemos para mantenernos seguros a nosotros mismos, a nuestras comunidades y a nuestra nación.
Ya hay muchas personas inteligentes dentro y fuera del gobierno haciendo exactamente esto, por supuesto, pero si aplicamos todo el esfuerzo y la capacidad intelectual que actualmente se fija en la perspectiva inútil de prohibir la IA para utilizar la IA para proteger contra las malas personas que hacen cosas malas, creo que no hay duda de que un mundo infundido con IA será mucho más seguro que el mundo en que vivimos hoy.
El riesgo real de no perseguir a la IA con la máxima fuerza y velocidad
Hay un último riesgo real de la IA que probablemente sea el más aterrador de todos: La IA no sólo se está desarrollando en las sociedades relativamente libres de Occidente, sino también en el Partido Comunista de la República Popular China.
China tiene una visión de la IA muy diferente a la nuestra: la consideran un mecanismo de control autoritario de la población, y punto. Ni siquiera lo ocultan, lo tienen muy claro y ya están llevando a cabo su programa. Y no pretenden limitar su estrategia de IA a China: pretenden hacerla proliferar por todo el mundo, en todas partes donde están alimentando redes 5G, en todas partes donde están prestando dinero de la Franja y la Ruta, en todas partes donde están proporcionando aplicaciones de consumo amigables como Tiktok que sirven como frontales a su IA centralizada de mando y control.
El mayor riesgo de la IA es que China consiga el dominio mundial de la IA y nosotros, Estados Unidos y Occidente, no. Propongo una estrategia simple para hacer frente a esto – de hecho, la misma estrategia que el presidente Ronald Reagan utilizó para ganar la primera Guerra Fría con la Unión Soviética.
“Nosotros ganamos, ellos pierden”.
En lugar de permitir que el pánico infundado en torno a la IA asesina, la IA “dañina”, la IA destructora de empleo y la IA generadora de desigualdad nos ponga de patitas en la calle, en Estados Unidos y Occidente deberíamos apoyarnos en la IA todo lo que podamos. Deberíamos intentar ganar la carrera hacia la superioridad tecnológica mundial en IA y asegurarnos de que China no lo haga. En el proceso, deberíamos introducir la IA en nuestra economía y sociedad tan rápido y con tanta fuerza como nos sea posible, con el fin de maximizar sus beneficios para la productividad económica y el potencial humano. Esta es la mejor manera tanto de compensar los riesgos reales de la IA como de garantizar que nuestro modo de vida no se vea desplazado por la visión china, mucho más oscura.
¿Qué hacer?
Propongo un plan sencillo: A las grandes empresas de IA se les debe permitir construir IA tan rápida y agresivamente como puedan – pero no se les debe permitir lograr la captura regulatoria, no se les debe permitir establecer un cártel protegido por el gobierno que esté aislado de la competencia del mercado debido a afirmaciones incorrectas sobre el riesgo de la IA. Esto maximizará los beneficios tecnológicos y sociales de las asombrosas capacidades de estas empresas, que son joyas del capitalismo moderno.
Debe permitirse a las nuevas empresas de IA que desarrollen la IA tan rápida y agresivamente como puedan. No deben enfrentarse a la protección gubernamental de las grandes empresas ni recibir ayudas públicas. Simplemente se les debe permitir competir. Si las startups no tienen éxito, su presencia en el mercado también motivará continuamente a las grandes empresas a dar lo mejor de sí mismas: nuestras economías y sociedades ganan de cualquier manera.
Debe permitirse que la IA de código abierto prolifere libremente y compita tanto con las grandes empresas de IA como con las startups. No debería haber ningún tipo de barrera reguladora para el código abierto. Incluso cuando el código abierto no venza a las empresas, su disponibilidad generalizada es una bendición para los estudiantes de todo el mundo que quieran aprender a construir y utilizar la IA para formar parte del futuro tecnológico, y garantizará que la IA esté disponible para todos los que puedan beneficiarse de ella, sin importar quiénes sean o cuánto dinero tengan.
Para contrarrestar el riesgo de que gente mala haga cosas malas con la IA, los gobiernos, en colaboración con el sector privado, deberían comprometerse enérgicamente en cada área de riesgo potencial para utilizar la IA con el fin de maximizar las capacidades defensivas de la sociedad. Esto no debería limitarse a los riesgos derivados de la IA, sino también a problemas más generales como la malnutrición, las enfermedades y el clima. La IA puede ser una herramienta increíblemente poderosa para resolver problemas, y debemos adoptarla como tal. Para evitar el riesgo de que China logre el dominio mundial de la IA, debemos utilizar todo el poder de nuestro sector privado, nuestro establecimiento científico y nuestros gobiernos de forma concertada para impulsar la IA estadounidense y occidental hacia el dominio mundial absoluto, incluso, en última instancia, dentro de la propia China. Nosotros ganamos, ellos pierden.
Y así es como utilizaremos la IA para salvar el mundo. Es hora de construir.
Leyendas y héroes
Concluyo con dos sencillas afirmaciones. El desarrollo de la IA comenzó en los años 40, simultáneamente a la invención del ordenador. El primer artículo científico sobre redes neuronales (la arquitectura de la IA que tenemos hoy) se publicó en 1943. Generaciones enteras de científicos especializados en IA de los últimos 80 años nacieron, estudiaron, trabajaron y, en muchos casos, fallecieron sin ver los frutos que estamos recibiendo ahora. Todos ellos son leyendas.
Hoy, legiones cada vez mayores de ingenieros -muchos de los cuales son jóvenes y pueden haber tenido abuelos o incluso bisabuelos implicados en la creación de las ideas que subyacen a la IA- están trabajando para hacer de la IA una realidad, contra un muro de alarmismo y doomerismo que intenta pintarlos como villanos temerarios. No creo que sean temerarios ni villanos. Son héroes.
El tweet original desde el cual realicé la traducción (si, adivinaste, con IA).
Why AI Will Save The World
By Marc AndreessenThe era of Artificial Intelligence is here, and boy are people freaking out.
Fortunately, I am here to bring the good news: AI will not destroy the world, and in fact may save it.
🧵— Marc Andreessen (@pmarca) June 6, 2023