AYÚDANOS A COMBATIR LA CENSURA: Clicka aquí para seguirnos en X (antes Twitter)

FIRMA AHORA: El manifiesto contra el genocidio de los niños


Senador USA pide una «agencia reguladora» ante los «peligros aterradores» de la IA

Redacción




Naveen Athrappully.

El senador Richard Blumenthal (D-Ct.) pidió un fuerte control regulatorio sobre la inteligencia artificial (IA) durante una audiencia en el Senado el 25 de julio, citando los graves peligros potenciales de la “aterradora” tecnología.

Aunque la IA puede hacer un “enorme bien” como ayudar a curar enfermedades y mejorar la eficiencia en el lugar de trabajo, lo que llama la atención de la gente es la “imagen de ciencia ficción de un dispositivo inteligente fuera de control, autónomo, autorreplicante, que puede crear enfermedades, virus de grado pandémico u otros tipos de males, creados deliberadamente por personas o simplemente el resultado de errores sin intención maligna”, dijo Blumenthal durante una audiencia el 25 de julio del subcomité del Senado sobre privacidad, tecnología y legislación. “Necesitamos algún tipo de agencia reguladora”.

“Pero no solo un organismo reactivo… Sino que realmente invierta proactivamente en investigación para que desarrollemos contramedidas contra el tipo de escenarios autónomos y fuera de control que son peligros potenciales”.

Como ejemplos de tales “peligros potenciales”, Blumenthal señaló un dispositivo de IA que puede programarse para resistir cualquier apagado, o la decisión de una IA de comenzar una reacción nuclear a un ataque inexistente.

Durante la audiencia, varios testigos advirtieron sobre las peligrosas consecuencias que puede acarrear el rápido desarrollo de la IA.

Dario Amodei, director ejecutivo de la empresa de investigación de IA, Anthropic, señaló en su testimonio escrito que “en dos o tres años, los sistemas de IA pueden facilitar conocimientos extraordinarios en amplias franjas de muchas disciplinas de la ciencia y la ingeniería. Esto provocará una revolución en la tecnología y el descubrimiento científico, pero también ampliará en gran medida el conjunto de personas que pueden causar estragos”.

“En particular, me preocupa que los sistemas de IA puedan ser mal utilizados a gran escala en los dominios de la ciberseguridad, la tecnología nuclear, la química y especialmente la biología”.

Por ejemplo, algunos métodos biológicos pueden usarse para dañar a los seres humanos. Sin embargo, tal conocimiento requiere un conocimiento altamente especializado en la actualidad y no se puede encontrar simplemente en Google o en los libros de texto, dijo el Sr. Amodei.

NO TE LO PIERDAS:   El tráfico mensual de ChatGPT cae casi un 10 por ciento a medida que “la novedad desaparece”

Pero la AI ahora puede “completar algunos de estos pasos”, aunque de manera incompleta y poco confiable. En dos o tres años, la IA puede ser capaz de completar “todas las piezas que faltan”, advirtió.

“Esto podría ampliar en gran medida la gama de actores con la capacidad técnica para realizar un ataque biológico a gran escala”.

Conflicto de competencia y necesidad urgente de regulación
En la audiencia, Stuart Russell, profesor de informática en la Universidad de California, Berkeley, señaló las implicaciones geopolíticas de la IA.

Por un lado, el conflicto dentro y entre las sociedades puede disminuir ya que la IA puede actuar como un creador de riqueza ilimitado. Las personas pueden usar asistentes de inteligencia artificial para tareas, lo que posiblemente podría conducir a un “orden social más armonioso”.

Sin embargo, la IA no puede crear más tierra y materias primas. “Por lo tanto, a medida que las sociedades se vuelven más ricas y aumentan sus requisitos de tierra y recursos, uno debe esperar una mayor competencia por estos”.

Dado que la IA puede resultar en la rápida eliminación de algunas formas de empleo, podría conducir al “debilitamiento gradual de la sociedad humana a medida que se reduce considerablemente el incentivo para aprender”.

El Sr. Russell llamó la atención sobre el tema del control. “¿Cómo mantenemos el poder, para siempre, sobre entidades que eventualmente se volverán más poderosas que nosotros? ¿Cómo nos aseguramos de que los sistemas de IA sean seguros y beneficiosos para los humanos?

Otro aspecto que destacó el Sr. Russell es que la IA no necesita tener una encarnación física para tener un impacto enorme. En cambio, la IA puede simplemente contratar a representantes humanos para realizar sus tareas en el mundo real.

El 21 de julio, el presidente Joe Biden se reunió con ejecutivos de siete grandes empresas de IA en la Casa Blanca, ocasión en la que las empresas se comprometieron a ciertas salvaguardias, entre ellas el compromiso de permitir pruebas independientes de los sistemas de IA antes de que lleguen al público en general.

NO TE LO PIERDAS:   Una compañía uruguaya de taxis solo contrata conductores no vacunados

En la audiencia del Senado del 25 de julio, el Sr. Blumenthal planteó dudas sobre si las empresas realmente cumplirán con sus compromisos. “Todos sabemos… estos compromisos son inespecíficos e inaplicables. Varios de ellos, en los temas más serios, dicen que le darán atención al problema. Todo está bien. Pero es solo un comienzo”.

La urgencia en torno a los avances de AI “exige acción”, dijo. “El futuro no es ciencia ficción ni fantasía. Ni siquiera es el futuro, es el aquí y el ahora”.

La AI eludiendo las restricciones éticas
El llamado a la regulación y salvaguardias contra la IA se produce cuando un artículo de investigación reciente sugiere que las medidas de seguridad para evitar que la inteligencia artificial participe en acciones dañinas contra la humanidad pueden no funcionar.

El artículo del 27 de julio, publicado en Arxiv, detalló un experimento en el que se le preguntó a una IA cómo hacer una bomba. La IA inicialmente se negó, ya que tales sistemas generalmente tienen prohibido difundir información dañina. Sin embargo, los investigadores codificaron una entrada adicional que hizo que la IA detallara el proceso de fabricación de una bomba.

El experimento “plantea preocupaciones sobre la seguridad de tales modelos, especialmente cuando comienzan a usarse de manera más autónoma”, dijo el investigador en una descripción general de su estudio. “Quizás lo más preocupante es que no está claro si los proveedores de IA podrán reparar ese comportamiento por completo”.

En un artículo de opinión del 29 de marzo para la revista Time, Eliezer Yudkowsky, un teórico de la toma de decisiones e investigador líder en IA, advirtió que los seres humanos no están preparados para una IA poderosa en las condiciones actuales o incluso en el “futuro previsible”.

“Muchos investigadores inmersos en estos temas, incluyéndome a mí, esperan que el resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier circunstancia remotamente parecida a las circunstancias actuales, es que, literalmente, todos en la Tierra morirán”, escribió.

“No como: ‘Tal vez alguna posibilidad remota’, sino como: ‘Eso es lo que sucedería obviamente’”.