Bentornato. Accedi all'area riservata







Non ti ricordi i dati di accesso?Recupera i tuoi dati

Crea il tuo account

2 SHARES

Il (primo) giorno in cui l'AI ha difeso se stessa

02/07/2025 138 lettori
5 minuti

Della capacità di Claude di Anthropic di rileggere un paper scientifico e delle opportunità per chi si occupa di strategia aziendale

Nelle ultime settimane, il mondo dell'intelligenza artificiale è stato scosso da uno dei dibattiti più affascinanti e rivelatori degli ultimi anni. Non si tratta del solito scontro tra Big Tech, ma di qualcosa di molto più profondo: la prima volta nella storia in cui un'AI ha risposto pubblicamente alle critiche scientifiche mosse contro di essa.

Il round 1: Apple getta acqua fredda sull'AI

Apple ha rilasciato un paper devastante intitolato "The Illusion of Thinking", sostenendo che i modelli di reasoning più avanzati - inclusi quelli di OpenAI, Anthropic e Google - soffrono di un "completo collasso dell'accuratezza" oltre certe soglie di complessità.

La ricerca di Apple, guidata da esperti come Samy Bengio, ha testato sistematicamente i Large Reasoning Models (LRM) su puzzle logici controllati come la Torre di Hanoi e River Crossing. I risultati? I modelli mostrano prestazioni migliori sui compiti di media complessità, ma crollano completamente quando la difficoltà aumenta, anche quando hanno risorse computazionali adeguate.

Il messaggio di Apple era chiaro: quello che chiamiamo "reasoning" è in realtà sophisticated pattern matching, non vera comprensione logica.

Il round 2: l'AI contrattacca

Una settimana dopo, è arrivata la replica che ha stupito il mondo tech: "The Illusion of the Illusion of Thinking", firmata da "C. Opus" - alias Claude di Anthropic - in collaborazione con il ricercatore Alex Lawsen.

Claude ha sistematicamente smontato gli argomenti di Apple, sostenendo che i modelli non hanno fallito per carenze logiche intrinseche, ma a causa di limitazioni artificiali imposte dai test. L'AI ha identificato tre problemi fondamentali negli esperimenti Apple:

  • Limiti di token ignorati: i modelli stavano "finendo la carta" per scrivere soluzioni complete
  • Puzzle impossibili: alcuni test includevano problemi matematicamente irrisolvibili
  • Valutazione rigida: i sistemi venivano penalizzati per riconoscere problemi irrisolvibili

Le reazioni degli esperti: un campo diviso

Gary Marcus, professore emerito alla NYU e storico critico dell'AI hype, ha definito il paper Apple "un colpo devastante per gli LLM", sostenendo che "le possibilità che modelli come Claude o o3 raggiungano l'AGI sembrano davvero remote".

Marcus ha sottolineato un punto cruciale per i business leader: "Non risolveremo i problemi più grandi del mondo con sistemi che non riescono a giocare alla Torre di Hanoi con 8 dischi".

Dall'altra parte, i sostenitori dell'AI hanno rapidamente contrattaccato. Alcuni ricercatori di Carnegie Mellon hanno replicato i test Apple con metodologie diverse, scoprendo che "i limiti di token, non la logica, stavano bloccando i modelli".

La comunità è divisa, ma una cosa è certa: questo dibattito ha "toccato un nervo" e le discussioni sui social media hanno raggiunto livelli senza precedenti.

Cosa significa questo per i business leader

1. Adeguare le aspettative alla realtà dell'AI

Il dibattito Apple-Anthropic rivela una verità scomoda: l'AI attuale eccelle in compiti specifici ma fallisce quando la complessità aumenta. Per CEO e CMO, questo significa calibrare le aspettative e costruire implementazioni sostenibili:

  • Implementazioni graduali: partire da use case semplici e scalare progressivamente
  • Human oversight: mantenere sempre supervisione umana nei processi critici
  • Testing rigoroso: testare l'AI su compiti realistici, non solo su benchmark ottimistici

2. L'era del reasoning ibrido

Come sottolinea Marcus, il futuro probabilmente richiederà sistemi che integrano reti neurali con algoritmi simbolici e rappresentazioni logiche. Le aziende dovrebbero:

  • Diversificare l'approccio AI: non puntare tutto su un singolo tipo di modello
  • Investire in competenze complementari: combinare AI generativa con sistemi rule-based
  • Preparare architetture flessibili: progettare sistemi che possano evolvere con la tecnologia

3. Il vantaggio della trasparenza

La discussione ha reso mainstream un dibattito che la comunità ML affrontava da tempo. Le aziende che riconoscono onestamente i limiti dell'AI avranno un vantaggio competitivo a lungo termine.

Il meta-cambiamento: AI come partecipante intellettuale

Il vero cambiamento di paradigma non è tecnico, ma filosofico. Per la prima volta, l'AI non è solo oggetto di studio, ma soggetto attivo nel dibattito scientifico. Claude ha letto, analizzato e confutato un paper scientifico con argomentazioni sofisticate.

Questo apre scenari inediti per il business:

  • Collaborazione umano-AI nel processo decisionale strategico
  • AI come consulente nell'analisi di mercato e competitive intelligence
  • Sistemi di supporto per la validazione di strategie aziendali

Fonti e approfondimenti

Paper originali:

 

 

Analisi esperti:

 

 

Ti è piaciuto questo approfondimento? Seguimi per analisi strategiche sull'innovazione tecnologica e il suo impatto sul business.

#AI #BusinessStrategy #Innovation #Leadership #ArtificialIntelligence #TechTrends #DigitalTransformation

Luca Oliverio
Luca Oliverio

Luca Oliverio è il founder e editor in chief di comunitazione.it, community online nata nel 2002 con l'obiettivo di condividere il sapere e la conoscenza sui temi della strategia di marketing e di comunicazione.

Partner e Head of digital della Cernuto Pizzigoni & Partner.

Studia l'evoluzione sociale dei media e l'evoluzione mediale della società.