Settings
Light Theme
Dark Theme

¿Por qué estiman que hay que frenar la carrera descontrolada de la IA?

¿Por qué estiman que hay que frenar la carrera descontrolada de la IA?
Mar 30, 2023 · 2m 37s

Elon Musk y 1.200 expertos del mundo digital firmaron este miércoles una tribuna, llamando a suspender durante seis meses el desarrollo de sistemas de inteligencia artificial. Los firmantes temen que...

show more
Elon Musk y 1.200 expertos del mundo digital firmaron este miércoles una tribuna, llamando a suspender durante seis meses el desarrollo de sistemas de inteligencia artificial. Los firmantes temen que programas cada vez más sofisticados puedan representar “un riesgo mayor para la humanidad”. En una carta publicada en el sitio Web Future of Life Institute, empresarios, investigadores y usuarios de las nuevas tecnologías digitales piden parar durante un semestre el desarrollo desenfrenado de las inteligencias artificiales (IA) como ChatGPT. Explican que un plazo de seis meses permitiría evaluar los sistemas de seguridad de estos sistemas de IA, definir un marco legal y crear dispositivos técnicos para ayudar a los Estados y a las instituciones a encarar las “crisis económicas y políticas que la IA podría pronto provocar, con consecuencias dramáticas”. RFI entrevistó a Jules Trueille, coordinador de inteligencia artificial en la escuela de ingeniería CentraleSupelec de París. RFI: ¿Qué llevó a tantos expertos de la tecnología a pedir una moratoria sobre la expansión de la inteligencia artificial? Jules Trueille: Lo importante aquí es que no están intentando suspender toda la investigación sobre inteligencia artificial, sino más bien todo lo relacionado con el desarrollo del sistema más poderoso, ChatGPT-4, durante al menos seis meses. Este programa desarrollado por la empresa OpenAI, financiado en su mayoría por Microsoft, está ganando rápidamente popularidad. El público en general ha podido ver que GPT es capaz de comprender tareas que creíamos reservadas solo al cerebro humano. En los últimos meses, los laboratorios de inteligencia artificial se metieron en una carrera frenética para desarrollar y desplegar sistemas digitales cada vez más poderosos que nadie, ni siquiera sus creadores, pueden entender o controlar de manera confiable. RFI: ¿Qué piden durante esos seis meses? Jules Trueille: Piden que hagamos protocolos de seguridad para el diseño y el desarrollo de las IA y crear entidades para regularla: sistemas para distinguir por ejemplo lo verdadero de lo sintético o mecanismos para determinar quién es responsable cuando la IA causa daños o prejuicios. Me parece un poco hipócrita por parte del jefe de Tesla, que luchó para evitar que se responsabilizarán sus sistemas de conducción inteligente en accidentes automovilísticos. Creo además que en la práctica será muy difícil lanzar una moratoria porque no será seguido en todos los países del mundo. Se puede ser escéptico sobre la voluntad de países como China o Rusia. RFI: Si esta moratoria se aplicara a los países occidentales, ¿países como China podrían aprovechar para ir aún más lejos? Jean Trueille: Por supuesto, pero es cierto también que hoy en día los estadounidenses son los más poderosos en ese tema de inteligencia artificial. Es uno de los sectores más concentrados del mundo, con un puñado de empresas que se reparten la mayor parte del pastel. Esas empresas son estadounidenses. RFI: ¿Cómo se sitúa Europa? Jules Trueille: Está detrás, intentando seguir el ritmo. Para Europa lo más importante no es ser un actor principal en materia de IA, sino cómo regularla y establecer un marco legal en esta disciplina. Por supuesto, Francia quiere incursionar en el tema y ha hecho planes para que sea posible. RFI: ¿El rol de Europa podría ser precisamente ese? ¿Establecer un marco jurídico, una legislación como lo hizo con los datos personales? Jules Trueille: Sí, definitivamente. Lo hizo con el llamado “RGPD”, que funciona bastante bien. En temas de IA se suman numerosas cuestiones éticas, planteadas por los clientes. Por ejemplo, cuando los programas generan obras de arte sintetizando información a partir de obras existentes. También, cuando las inteligencias artificiales adquieren sesgos, planteando problemas de prejuicios raciales o de género.
show less
Information
Author Radio Ebenezer RD
Website -
Tags

Looks like you don't have any active episode

Browse Spreaker Catalogue to discover great new content

Current

Looks like you don't have any episodes in your queue

Browse Spreaker Catalogue to discover great new content

Next Up

Episode Cover Episode Cover

It's so quiet here...

Time to discover new episodes!

Discover
Your Library
Search