Episode image

Perché non possiamo fidarci dell'Intelligenza Artificiale: allucianzioni, sicofantia e menzogne

Pensieri in codice

Episode   ·  0 Play

Episode  ·  41:48  ·  Aug 17, 2025

About

In questo episodio esploriamo i motivi per cui dobbiamo mantenere un atteggiamento critico verso l’Intelligenza Artificiale generativa. Analizziamo tre fenomeni fondamentali: le allucinazioni (quando i modelli producono informazioni false ma convincenti), la sicofantia (la tendenza ad assecondare sempre l’utente anche quando ha torto) e le menzogne (quando i modelli nascondono i loro veri processi di ragionamento). Scopriamo perché questi comportamenti sono intrinseci al funzionamento stesso dei Large Language Model e come il metodo di addestramento basato su feedback umano contribuisca a questi problemi. Un episodio essenziale per chiunque utilizzi strumenti di IA nella vita quotidiana o professionale. Pensieri in codice Entra a far parte della community Canale Telegram Gruppo Telegram Sostieni il progetto Sostieni tramite Satispay Sostieni tramite Revolut Sostieni tramite PayPal (applica commissioni) Sostieni utilizzando i link affiliati di Pensieri in codice: Amazon, Todoist, Readwise Reader, Satispay Sostenitori di oggi: Edoardo Secco, Carlo Tomas, Michele S., Paola Z. Partner GrUSP (Codice sconto per tutti gli eventi: community_PIC) Schrödinger Hat Fonti dell'episodio https://www.ibm.com/think/topics/ai-hallucinations https://openai.com/it-IT/index/introducing-gpt-4-5 https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots https://arxiv.org/abs/2401.11817 https://www.theatlantic.com/technology/archive/2025/05/sycophantic-ai/682743 https://arxiv.org/abs/2310.13548 https://www.anthropic.com/research/reasoning-models-dont-say-think https://assets.anthropic.com/m/71876fabef0f0ed4/original/reasoning_models_paper.pdf https://arstechnica.com/science/2024/10/the-more-sophisticated-ai-models-get-the-more-likely-they-are-to-lie https://www.nature.com/articles/s41586-024-07930-y https://www.uniladtech.com/news/ai/sam-altman-trust-chatgpt-eerie-statement-hallucination-claims-782637-20250625 Crediti Sound design - Alex Raccuglia Voce intro - Maria Chiara Virgili Voce intro - Spad Musiche - Kubbi - Up In My Jam, Light-foot - Moldy Lotion, Creativity, Old time memories Suoni - Zapsplat.com Cover e trascrizione - Francesco Zubani

41m 48s  ·  Aug 17, 2025

© 2025 Spreaker (OG)