Centrarse en escenarios apocalípticos en la inteligencia artificial es una distracción que minimiza los riesgos inmediatos, como la generación de desinformación a gran escala, según una figura importante de la industria que asistió a la cumbre de seguridad de la IA de esta semana.

Aidan Gómez, coautor de un artículo de investigación que ayudó a crear la tecnología detrás de los chatbots, dijo que los riesgos a largo plazo, como las amenazas existenciales a la humanidad causadas por la IA, deberían «estudiarse y perseguirse», pero podrían desviar a los políticos para que se ocupen de los problemas inmediatos. potencial. daños.

«Creo que en términos de riesgo existencial y políticas públicas, no es una conversación productiva», dijo. «Cuando se trata de políticas públicas y dónde deberíamos centrar el sector público -o tratar de mitigar el riesgo para la población civil- creo que constituye una distracción, lejos de riesgos que son mucho más tangibles e inmediatos».

Gómez asistirá a la cumbre de dos días, que comienza el miércoles, como director ejecutivo de Cohere, una empresa estadounidense que fabrica herramientas de inteligencia artificial para empresas, incluidos chatbots. En 2017, a los 20 años, Gómez formó parte de un equipo de investigadores de Google que crearon Transformer, una tecnología clave detrás de los grandes modelos de lenguaje que impulsan herramientas de inteligencia artificial como los chatbots.

Gómez dijo que la IA -el término para los sistemas informáticos que pueden realizar tareas normalmente asociadas con seres inteligentes- ya se utiliza ampliamente y son estas aplicaciones en las que la cumbre debería centrarse. Chatbots como ChatGPT y generadores de imágenes como Midjourney han sorprendido al público con su capacidad para producir texto e imágenes plausibles a partir de instrucciones de texto simples.

Te Puede Interesar:   En mi radar: los aspectos más destacados culturales de Carlo Rovelli | Cultura

“Esta tecnología ya está presente en mil millones de productos de usuarios, como Google y otros. Esto presenta una serie de nuevos riesgos para discutir, ninguno de los cuales es existencial, ninguno de los cuales es un escenario apocalíptico”, dijo Gómez. «Deberíamos centrarnos directamente en las piezas que están a punto de impactar a las personas o que están impactando activamente a las personas, en lugar de quizás la discusión más académica y teórica sobre el futuro a largo plazo».

Gómez dijo que la desinformación (la difusión de información engañosa o incorrecta en línea) era su principal preocupación. “La desinformación es algo que tengo en mente”, dijo. “Estos modelos (de IA) pueden crear medios extremadamente convincentes, muy convincentes, prácticamente indistinguibles de textos, imágenes o medios creados por humanos. Y esto es algo que necesitamos resolver urgentemente. Necesitamos descubrir cómo vamos a darle al público la capacidad de distinguir entre estos diferentes tipos de medios”.

2500 El fin del mundo de la IA señala una distracción del peligro que ya representa, advierte un experto |  Inteligencia artificial (IA)
Ejemplos de obras de arte generadas recientemente utilizando herramientas de inteligencia artificial y publicadas en las redes sociales. Composición: IA a través de usuarios de Twitter Pop Base/Eliot Higgins/Cam Harless

El día inaugural de la cumbre incluirá debates sobre una variedad de cuestiones relacionadas con la inteligencia artificial, incluidas preocupaciones relacionadas con la desinformación, como la interrupción de las elecciones y la erosión de la confianza social. El segundo día, que contará con un grupo más pequeño de países, expertos y ejecutivos de tecnología reunidos por Rishi Sunak, discutirá qué medidas concretas se pueden tomar para abordar los riesgos de la IA. Entre los participantes estará Kamala Harris, vicepresidenta de Estados Unidos.

Te Puede Interesar:   Plantwatch: Las secoyas se recuperan sorprendentemente después de un incendio forestal en California | Plantas

Gómez, quien describió la cumbre como “realmente importante”, dijo que ya era “muy plausible” que un ejército de bots (software que realiza tareas repetitivas, como publicaciones en las redes sociales) pudiera difundir desinformación generada por IA. «Si se puede hacer eso, será una amenaza real para la democracia y el debate público», afirmó.

En una serie de documentos que describían los riesgos de la IA la semana pasada, que incluían información errónea generada por la IA y perturbaciones en el mercado laboral, el gobierno dijo que no podía descartar la posibilidad de que el desarrollo de la IA llegara a un punto en el que los sistemas amenazaran a la humanidad.

A El artículo sobre riesgos publicado la semana pasada afirmó: «Dada la importante incertidumbre en la predicción del desarrollo de la IA, no hay pruebas suficientes para descartar que los sistemas de IA de Frontier altamente capaces, si están desalineados o controlados inadecuadamente, podrían representar una amenaza existencial».

El documento añade que muchos expertos consideran que este riesgo es muy bajo y que implicaría una serie de escenarios, incluido un sistema avanzado que se hiciera con el control de las armas o de los mercados financieros. Las preocupaciones sobre una amenaza existencial de la IA se centran en la perspectiva de la llamada inteligencia artificial general (un término para un sistema de IA capaz de realizar múltiples tareas en o por encima del nivel humano de inteligencia) que, en teoría, podría replicarse, escapar de los humanos. controlar y tomar decisiones que van en contra de los intereses humanos.

Te Puede Interesar:   'Hasta las palomas se ven increíbles': La magia multicolor de un paseo por la naturaleza biofluorescente | Animales salvajes

Estos temores llevaron a la publicación de una carta abierta en marzo, firmada por más de 30.000 profesionales y expertos en tecnología, incluido Elon Musk, pidiendo una pausa de seis meses en los experimentos gigantes de IA.

Dos de los tres “padrinos” modernos de la IA, Geoffrey Hinton y Yoshua Bengio, firmaron una nueva declaración en mayo advirtiendo que evitar el riesgo de extinción de la IA debe tratarse con la misma seriedad que la amenaza de pandemias y guerra nuclear. Sin embargo, Yann LeCun, su compañero “padrino” y coganador del Premio ACM Turing –considerado el Premio Nobel de la informática– calificó de “absurdos” los temores de que la IA pueda exterminar a la humanidad.

LeCun, científico jefe de IA en Meta, la empresa matriz de Facebook, dijo Tiempos financieros este mes que se necesitarían varios “avances conceptuales” antes de que la IA pudiera alcanzar una inteligencia a nivel humano, un punto en el que un sistema podría escapar del control humano. LeCun añadió: “La inteligencia no tiene nada que ver con el deseo de dominar. Eso ni siquiera es cierto para los humanos”.

Deja un comentario

error: Alert: Content selection is disabled!!