Την όχι και τόσο αισιόδοξη εκτίμηση ότι έως το 2030 τα συστήματα τεχνητής νοημοσύνης θα καταναλώνουν το 25% της ηλεκτρικής ενέργειας που καταναλώνουν οι ΗΠΑ έκανε ο διευθύνων σύμβουλος της ARM Rene Haas.
Ο επικεφαλής της εταιρείας που βρίσκεται πίσω από σχεδόν κάθε ολοκληρωμένο κύκλωμα που βρίσκεται σήμερα σε λειτουργία ή στη φάση του σχεδιασμού, δεν είναι ο μόνος που μιλάει για το ενεργειακό αποτύπωμα της τεχνητής νοημοσύνης. Στις αρχές του έτους ο Διεθνής Οργανισμός Ενέργειας δημοσίευσε έκθεση στην οποία ανέφερε ότι μία ερώτηση στο ChatGPT, στο Gemini ή σε κάποιο άλλο chatbot με τεχνητή νοημοσύνη, "καίει" δέκα φορές περισσότερη ενέργεια από ό,τι μια αναζήτηση μέσω Google (ή Bing). Σήμερα η Google χρειάζεται περίπου μία τεραβατώρα ή ένα δισεκατομμύριο κιλοβατώρες για να εξυπηρετήσει από ενεργειακής πλευράς όλες μας τις αναζητήσεις, άρα οι συνολικές ανάγκες των συστημάτων τεχνητής νοημοσύνης θα μπορούσαν να φτάσουν τις 10 τεραβατώρες και σε μια περίοδο που η κλιματική αλλαγή δείχνει τα δόντια της το τελευταίο πράγμα που θα ήθελε κανείς θα ήταν ένα σύστημα που μπορεί να παράγει απαντήσεις σε ό,τι το ρωτήσεις αλλά έχει ακόρεστη δίψα (ή πείνα) για ηλεκτρικό ρεύμα.
Σύμφωνα με τον Haas, μια συνεργασία μεταξύ Ιαπωνίας και Ηνωμένων Πολιτειών θα μπορούσε να αμβλύνει την πίεση στα συστήματα παραγωγής ενέργειας, έστω εν μέρει. Βεβαίως αυτά δεν φαίνεται για την ώρα να απασχολούν τις εταιρείες που διαγκωνίζονται στο πεδίο της τεχνητής νοημοσύνης και αναζητούν τρόπους για να κάνουν τα chatbots τους πιο ευφυή - ίσως και πιο ενεργοβόρα...