Settings
Light Theme
Dark Theme

[S10E17] Inteligencia Artificial, sesgos y error

[S10E17] Inteligencia Artificial, sesgos y error
Sep 12, 2022 · 1h 47m 1s

La inteligencia artificial es algo ubicuo en nuestras vidas y a ella se encomiendan cada vez más tareas, algunas de las que somos conscientes y otras de las que no,...

show more
La inteligencia artificial es algo ubicuo en nuestras vidas y a ella se encomiendan cada vez más tareas, algunas de las que somos conscientes y otras de las que no, y se lo hace partiendo de la premisa de que, al no estar sujeta a problemas de criterio humano sino solamente a un análisis sistemático de la realidad, esta no se equivocaría. Sin embargo, la inteligencia artificial está sujeta a muchísimas fuentes de error de distintos tipos, y dedicamos nuestro programa a comentar algunos de estos.
El primer gran grupo de problemas son los relacionados a los sesgos, tanto del corpus como de la propia definición de variables. El sesgo, que es un problema que se ha trabajado en varias disciplinas (desde la bibliotecología hasta las neurociencias) se observa en la IA de muchas maneras: a veces reproduce problemas sociales al aplicar acríticamente datos de sociedades desiguales y problemáticas y otras deja de lado dimensiones enteras de los problemas que analiza, generando nuevas injusticias y problemas de carácter social.
Pero, además, hay problemas que no surgen de los corpus y bases de datos y su composición sino de la propia arquitectura técnica de los sistemas. Por eso, analizamos algunas formas en las que se producen errores en los sistemas y algunas maneras en las que algunos las inducen a ello.

Links a cosas sobre las que hablamos en el programa

Charla sobre algunos de los problemas de las grandes corporaciones tecnológicas y como evitar algunos: https://tube.undernet.uy/w/q6gKWhofAVdgmGp1PzGopY
Entrevista a William Isaac sobre algunos peligros de la IA: https://montisvisitranslatorum.wordpress.com/2020/11/23/los-verdaderos-peligros-de-la-ia-estan-mas-cerca-de-lo-que-pensamos-karen-hao-entrevista-a-william-isaac/
Artículo sobre el paper que provocó el despido de Timnit Gebru y sobre los problemas alrededor: https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/
Publicación del equipo técnico de Twitter sobre los problemas de sus algoritmos: https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-image-cropping-algorithm
Artículo sobre algunos problemas de sesgo de los algoritmos de Twitter: https://www.wired.com/story/twitters-photo-cropping-algorithm-favors-young-thin-females/
Artículo sobre la IA de Google y los gorilas: https://www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/
Otro artículo sobre la IA de Google y los gorilas: https://www.bbc.com/news/technology-33347866
Artículo sobre algunos problemas con el aprendizaje adversarial en reconocimiento de imágenes: https://bdtechtalks.com/2020/08/03/machine-learning-adversarial-image-scaling/?utm_source=pocket_mylist

El Opio se emite en vivo por nuestro canal de Twitch: https://www.twitch.tv/el_opio_

Conducen: Adrián Barrera y Joaquín Moreira Alonso.
Participa: Emilio Delgado
Produce: Laura Sandoval

Twitter: https://twitter.com/opiodelasmasas
Mastodon: https://mastodon.uy/@el_opio_
Facebook: https://www.facebook.com/elopiodelasmasas
YouTube: https://www.youtube.com/channel/UCS4lvM0jqy156dNUDVCeBNQ
PeerTube: https://tube.undernet.uy/c/elopio/videos
Twitch: https://www.twitch.tv/el_opio_
show less
Information
Author UyCast
Website -
Tags

Looks like you don't have any active episode

Browse Spreaker Catalogue to discover great new content

Current

Looks like you don't have any episodes in your queue

Browse Spreaker Catalogue to discover great new content

Next Up

Episode Cover Episode Cover

It's so quiet here...

Time to discover new episodes!

Discover
Your Library
Search