02 dicembre 2025 | di Irene Senatore
Misurare il consumo energetico dell’intelligenza artificiale è più complesso di quanto sembri: non esiste un solo numero, ma un intreccio di fasi, hardware, stime e incertezze. In questo episodio esploriamo come ricercatori e analisti provano a calcolare l’impatto energetico dei modelli AI, distinguendo tra training, inferenza e manutenzione, e analizzando i principali trade-off: dimensione dei modelli, specializzazione, efficienza degli acceleratori e tecniche di compressione. Una guida pratica per capire cosa sappiamo davvero, cosa possiamo solo stimare e quali domande dovremmo farci di fronte ai numeri sull’energia dell’AI.
References: Epoch AI; Energy and AI | IEA; Power Hungry Processing: Watts Driving the Cost of AI Deployment?; Title: Measuring the environmental impact of delivering AI at Google Scale;
Empirical Measurements of AI Training Power Demand on a GPU-Accelerated Node