Cuál es el siguiente paso en la inteligencia artificial
Cuál es el siguiente paso en la inteligencia artificial

Mustafa Suleyman recuerda el momento trascendental en el que comprendió el potencial de la inteligencia artificial. Era 2016 —época paleolítica para los estándares de la IA— y DeepMind, la empresa que había cofundado y que había sido adquirida por Google en 2014, había enfrentado su máquina de IA, AlphaGo, contra un campeón mundial de go, el juego de estrategia desconcertantemente difícil. AlphaGo realizó miles de permutaciones, despachando con rapidez al desventurado humano. Atónito, Suleyman entendió que la máquina tenía “percepciones aparentemente sobrehumanas”, dice en su libro sobre IA, “La ola que viene”.

El resultado ya no es sorprendente, pero las implicaciones sí lo son. Poco más de un año después de que el software ChatGPT de OpenAI ayudara a llevar la IA generativa a la conciencia pública, las empresas, los inversores y los reguladores están lidiando con cómo moldear la tecnología diseñada para superarlos. Los riesgos exactos de la tecnología aún se están debatiendo y aún no se han determinado las empresas que la liderarán. Sin embargo, hay un punto de acuerdo: la IA es transformadora. “A la gente le resulta muy difícil imaginar el nivel de innovación”, dijo Vinod Khosla, fundador de la firma de capital riesgo de Silicon Valley Khosla Ventures, que fue uno de los primeros inversores de OpenAI. “Elige un área: libros, películas, música, productos, oncología. Simplemente no se detiene”.

Si 2023 fue el año en que el mundo despertó a la IA, 2024 podría ser el año en el que se pondrán a prueba (y quizás se infrinjan) sus límites legales y técnicos. DealBook habló con expertos en inteligencia artificial sobre los efectos de este cambio en el mundo real y qué esperar el próximo año.

Los jueces y legisladores intervendrán cada vez más

Es muy probable que la avalancha de regulaciones sobre IA de los últimos meses sea objeto de escrutinio. Eso incluye la orden ejecutiva del presidente Joe Biden de octubre, la cual, de ser ratificada por el Congreso, podría obligar a las empresas a garantizar que sus sistemas de inteligencia artificial no puedan utilizarse para fabricar armas biológicas o nucleares, incrustar marcas de agua en contenido generado por la IA y revelar los clientes extranjeros al gobierno.

En la Cumbre de Seguridad de la IA celebrada en el Reino Unido en noviembre, 28 países, incluida China —aunque no Rusia—, acordaron colaborar para prevenir “riesgos catastróficos”. Y en negociaciones maratónicas en diciembre, la Unión Europea redactó uno de los primeros intentos integrales del mundo para limitar el uso de la inteligencia artificial, el cual, entre otras disposiciones, restringe el reconocimiento facial y los ultrafalsos (“deepfakes”) y define cómo las empresas pueden usar la IA. El texto final deberá presentarse a principios de 2024 y los 27 países miembros del bloque esperan aprobarlo antes de las elecciones al Parlamento Europeo en junio.

Con eso, Europa podría terminar generando reglas globales de IA, al exigir que cualquier empresa que haga negocios en su mercado, de 450 millones de personas, coopere. “Les hace la vida más difícil a los innovadores”, dijo Matt Clifford, quien ayudó a organizar la cumbre sobre IA en el Reino Unido. “Tienen que considerar cumplir con una lista muy larga de cosas que preocupan a la gente en Bruselas”.

Hay muchas preocupaciones, incluyendo algunas sobre el potencial de la IA para remplazar una gran cantidad de empleos y reforzar los prejuicios raciales existentes.

Algunos temen saturar a las empresas de IA con regulaciones

Clifford cree que las leyes existentes contra el fraude y la protección del consumidor hacen que algunas partes de la legislación europea, la Ley de IA, sean redundantes. Pero el principal arquitecto de la UE, Dragos Tudorache, afirmó que Europa “no aspiraba a ser un regulador global” y que mantuvo un estrecho diálogo con miembros del Congreso de Estados Unidos durante las negociaciones. “Estoy convencido de que debemos mantenernos sincronizados tanto como sea posible”, afirmó.

Los gobiernos tienen buenas razones para abordar la IA: incluso las herramientas simples pueden servir a propósitos oscuros. “El micrófono permitió tanto los congresos de Núremberg como a los Beatles”, escribió Suleyman, quien es actualmente director ejecutivo de Inflection AI, una empresa emergente que cofundó el año pasado con Reid Hoffman, cofundador de LinkedIn. Teme que la IA pueda volverse “incontenible e incontrolable” una vez que supere a los humanos. “El Homo technologicus podría acabar amenazado por su propia creación”.

Las capacidades de la IA se dispararán

Es difícil determinar cuándo podría llegar ese punto de inflexión. Jensen Huang, cofundador y director ejecutivo de Nvidia, cuyo dominio de los chips de IA ha triplicado el precio de sus acciones desde el 1 de enero de 2023, dijo en la Cumbre DealBook a finales de noviembre que “hay un montón de cosas que todavía no podemos hacer”.

Khosla cree que el avance clave de la IA en 2024 será el “razonamiento”, el cual le permitirá a las máquinas producir resultados mucho más precisos, y que en 2025, “la IA le ganará en razonamiento a los miembros inteligentes de la comunidad”. Las máquinas de IA serán cada vez más capaces de trabajar a través de varios pasos lógicos y realizar pensamiento probabilístico, como identificar una enfermedad basándose en datos específicos, afirmó Khosla.

Se necesitarán inversiones multimillonarias

Nada de esto será barato, y la cuestión ahora es qué empresas serán capaces de construir negocios de IA verdaderamente sostenibles. De las 175.072 patentes de IA presentadas entre 2012 y 2022, más de la mitad se presentaron en los últimos tres años, según Deutsche Bank. En 2024 y 2025, el banco prevé un fuerte aumento de las empresas que utilizan la IA para recursos humanos, marketing, ventas y desarrollo de productos. Esto ya está ocurriendo: Los bufetes de abogados, por ejemplo, han empezado a utilizar contratos generados por IA, recortando horas de trabajo a los letrados. “El momento es propicio para una explosión de innovación en IA”, predijo el pasado mes de mayo.

A medida que se desarrollan estas innovaciones, aumenta la recaudación de fondos. La startup francesa de IA Mistral AI -considerada una competidora europea de OpenAI- recaudó más de 500 millones de dólares en 2023. Más de 200 millones procedían del gigante de capital riesgo de Silicon Valley Andreessen Horowitz, en una ronda de financiación que valoró Mistral, con sólo siete meses de vida, en 2.000 millones de dólares.

Pero eso podría no ser suficiente para crear un sistema de IA de propósito general del tipo que impulsa ChatGPT y que Mistral tiene en mente. “Cada vez están más claras las enormes sumas de dinero que se necesitan para ser competitivos”, afirma Clifford. “Si quieres construir un modelo de propósito general, puede que la cantidad de capital necesaria sea tan grande que lo haga muy difícil para el capital riesgo tradicional”.

© The New York Times 2023

Posted in Ciencia y Tecnología

Más de gente

Más leídas de gente

Las Más leídas