Da quando la stampa generalista ha scoperto l’intelligenza artificiale (purtroppo solo in concomitanza del rilascio di ChatGPT) le notizie sugli algoritmi godono di ampia visibilità.
Si è subito affermata, come predominante, una narrazione tesa ad assegnare facoltà umane agli algoritmi, a discapito di una corretta informazione e di una giusta percezione su cosa possa e non possa fare realmente un sistema di intelligenza artificiale.
In questa puntata riassumo la guida ‘antibufale’ redatta da due ricercatori di Princeton: hanno passato al setaccio la stampa internazionale, scovando errori marchiani anche tra le righe di prestigiose testate.
FONTI Le regole per una corretta informazione sull’IA sono tratte dal vademecum di
Sayash Kapoor e
Arvind Narayan, consultabile a questo link
ai-reporting-pitfalls.pdf (princeton.edu) L’articolo di The New York Times è pubblicato qui
The Machines Are Learning, and So Are the Students - The New York Times (nytimes.com) Il post pubblicato da OpenAI (cui si fa riferimento nella puntata) è questo
Planning for AGI and beyond (openai.com)