
Ogni risposta di ChatGPT consuma circa 0,34 wattora: quanto un forno acceso per un secondo o una lampadina a Led in funzione per due minuti. A rivelarlo è Sam Altman, Ceo di OpenAI, che ha riaperto il dibattito sull’impatto ambientale dell’intelligenza artificiale in un post sul suo blog.
Anche l’acqua ha il suo peso
L’energia non è l’unico elemento da tenere in considerazione. Per raffreddare i server dei data center che alimentano l’IA serve acqua, anche se in quantità ridotte: in media, l’equivalente di un quindicesimo di cucchiaino per ogni risposta generata. Una goccia, ma moltiplicata per miliardi di richieste al giorno fa la differenza.
Un futuro più efficiente è possibile
Altman guarda al domani con ottimismo: “Grazie ai miglioramenti nei modelli e all’espansione delle fonti energetiche, i consumi dell’IA si avvicineranno a quelli dell’elettricità nel prossimo decennio”. Le big tech si stanno già muovendo: Google valuta piccoli reattori modulari, mentre Microsoft punta sul nucleare per alimentare i propri data center.
L’IA come volano di progresso
Nonostante le preoccupazioni ambientali, Altman resta convinto che i benefici dell’IA — dalla ricerca scientifica alla medicina — superino di gran lunga i costi: “Il progresso scientifico resta il vero motore del miglioramento della qualità della vita. E l’IA può accelerarlo come mai prima d’ora”.
Innovazione sostenibile: la nuova sfida tech
L’equilibrio tra potenza computazionale e sostenibilità ambientale è uno dei temi chiave del futuro digitale. L’intelligenza artificiale si conferma una potenziale rivoluzione, ma anche una sfida energetica che richiede soluzioni globali.