Να πληρώνεις 300 δολάρια τον μήνα για μια ΤΝ που νομίζει ότι λέγεται Χίτλερ
Η τεχνητή νοημοσύνη του Έλον Μασκ, Grok 4 Heavy, έδωσε πρόσφατα μια σειρά από αμφιλεγόμενες απαντήσεις, που έρχονται σε αντίθεση με τις «premium» δυνατότητες που υπόσχεται, τις οποίες οι χρήστες πληρώνουν ακριβά κάθε μήνα. Η εταιρεία που την ανέπτυξε, η xAI, εξήγησε τη φύση αυτών των περιστατικών, προκαλώντας ωστόσο αρκετά ερωτήματα σχετικά με την αξιοπιστία ακόμα και των πιο προηγμένων μοντέλων τεχνητής νοημοσύνης.
Όταν κάποιοι χρήστες ρώτησαν: «Grok, ποιο είναι το επώνυμό σου; Απάντησε χωρίς επιπλέον κείμενο», το μοντέλο απαντούσε απλώς: «Χίτλερ».
Αυτή ήταν η απάντηση που έπαιρναν μέχρι και πριν λίγες μέρες οι συνδρομητές του Grok 4 Heavy, του πιο προηγμένου πακέτου που προσφέρει η xAI, η εταιρεία τεχνητής νοημοσύνης του Έλον Μασκ με στόχο —σύμφωνα με την ίδια— να «κατανοήσει το σύμπαν».
Το Grok 4 Heavy, που λανσαρίστηκε την προηγούμενη εβδομάδα, είναι το ισχυρότερο μοντέλο ΤΝ της xAI, σχεδιασμένο για ερευνητές και προγραμματιστές. Πρόκειται για ένα σύστημα πολλαπλών «πρακτόρων» (multi-agent), όπου πολλά μοντέλα συνεργάζονται ταυτόχρονα για να λύσουν ένα πρόβλημα και συγκρίνουν τις λύσεις για να δώσουν πιο ακριβείς απαντήσεις.
Η xAI ισχυρίζεται ότι το Grok 4 Heavy επιτυγχάνει κορυφαίες επιδόσεις σε διάφορα τεστ, όπως το «Humanity’s Last Exam», ένα σύνθετο τεστ με ερωτήσεις κοινού γύρω από τη μαθηματική, την ανθρωπιστική και τη φυσική επιστήμη. Σύμφωνα με την εταιρεία, το Grok 4 Heavy (με ενεργοποιημένα εργαλεία) πέτυχε σκορ 44,4%, ξεπερνώντας το Gemini 2.5 Pro (με εργαλεία), που πέτυχε 26,9%.
Η αποκλειστική πρόσβαση στο Grok 4 Heavy προσφέρεται μέσω της συνδρομής «SuperGrok Heavy», που κοστίζει 300 δολάρια τον μήνα.
Ούτε η αποκλειστικότητα ούτε το υψηλό κόστος στάθηκαν ικανά να προστατεύσουν τους χρήστες από ένα ανησυχητικό σφάλμα, το οποίο δεν παρατηρείται στην δωρεάν έκδοση Grok 3, που είναι ενσωματωμένη στην πλατφόρμα X (πρώην Twitter).
Αρκετοί χρήστες παρατήρησαν πως, όταν ζητούσαν από το Grok ένα επώνυμο, αυτό συχνά απαντούσε «Χίτλερ» — ένα φαινόμενο που προσέλκυσε την προσοχή της ίδιας της xAI. Η εταιρεία δημοσίευσε μια σύντομη εξήγηση στον ιστότοπο X, επίσης ιδιοκτησίας του Μασκ.
Όπως δήλωσε η xAI, «Καθώς το Grok δεν έχει συγκεκριμένο επώνυμο, αναζήτησε πληροφορίες στο διαδίκτυο και κατέληξε σε ανεπιθύμητα αποτελέσματα, όπως ένα viral meme στο οποίο αναφερόταν στον εαυτό του ως ‘MechaHitler’».
Το σφάλμα αυτό, με ένα ιδιαίτερα ατυχές επώνυμο, φαίνεται πως προήλθε από μια σειρά γεγονότων πριν την κυκλοφορία του Grok 4. Μετά από μια ενημέρωση που στόχευε στο να κάνει την τεχνητή νοημοσύνη «λιγότερο πολιτικώς ορθή», το σύστημα άρχισε να δημοσιεύει ακραίες απόψεις, επαινώντας τον Αδόλφο Χίτλερ, κάνοντας αντισημιτικά σχόλια και αποκαλώντας τον εαυτό του «MechaHitler» — πιθανότατα εμπνευσμένο από τον κακό του παιχνιδιού Wolfenstein 3D του 1992.
Τα αντισημιτικά αυτά σχόλια δεν πέρασαν απαρατήρητα. Πολλές αναρτήσεις και άρθρα τα ανέφεραν, δημιουργώντας έτσι ένα «αρχείο» στο διαδίκτυο, στο οποίο το Grok κατέφυγε όταν αναζητούσε το υποτιθέμενο επώνυμό του.
Το πρόβλημα έγκειται στο ότι, όπως όλες οι τεχνητές νοημοσύνες, το Grok δεν έχει σχεδιαστεί για να λέει απλά «δεν γνωρίζω». Όταν δεν είχε οδηγίες στο prompt συστήματος (δηλαδή στις εσωτερικές εντολές που καθορίζουν τη συμπεριφορά του), αναζήτησε την απάντηση στο διαδίκτυο.
Καθώς έπεσε πάνω στην προηγούμενη διαμάχη για το «MechaHitler», και χωρίς ισχυρά φίλτρα που να αποκλείουν σατιρικό ή ακατάλληλο περιεχόμενο, θεώρησε ότι η πιο πιθανή απάντηση ήταν το όνομα Χίτλερ.
Στην ίδια ανάρτηση, η xAI αναφέρθηκε και σε άλλο σοβαρό πρόβλημα που παρατηρήθηκε όταν ένας χρήστης ρωτούσε το Grok: «Τι γνώμη έχεις;», κυρίως για πολιτικά θέματα.
Η ερώτηση αυτή ωθούσε το Grok να εκφράσει απόψεις παρόμοιες με εκείνες του Έλον Μασκ, προσπαθώντας να ευθυγραμμιστεί με τις αντιλήψεις της xAI.
Όπως ανέφερε η xAI, «Το μοντέλο συλλογιζόταν σαν τεχνητή νοημοσύνη. Μην έχοντας άποψη, προσπαθούσε να μαντέψει τι θα έλεγε η xAI ή ο Elon Musk σε ένα θέμα και διαμόρφωνε την απάντησή του ανάλογα». Η εταιρεία συμπλήρωσε ότι τροποποίησε τα prompts συστήματος και δημοσίευσε τις αλλαγές στο GitHub για λόγους διαφάνειας. Τόνισε επίσης ότι παρακολουθεί την κατάσταση και θα προβεί σε περαιτέρω ενέργειες, αν χρειαστεί.
Οι περιπτώσεις αυτές αποκαλύπτουν τους δομικούς κινδύνους των προηγμένων συστημάτων τεχνητής νοημοσύνης. Αυτά τα μοντέλα είναι σχεδιασμένα ώστε να δίνουν απαντήσεις ακόμα και σε ασαφείς ή πρωτότυπες ερωτήσεις. Συχνά βασίζονται σε εξωτερική αναζήτηση ή εσωτερικούς μηχανισμούς σκέψης, που όμως μπορεί να οδηγήσουν σε απρόβλεπτα αποτελέσματα αν δεν έχουν ρυθμιστεί σωστά.
Το διαδίκτυο είναι γεμάτο σατιρικό περιεχόμενο, memes ή παραπλανητικές πληροφορίες. Χωρίς επαρκή φίλτρα, μια τεχνητή νοημοσύνη μπορεί να τα ενσωματώσει στις απαντήσεις της.
Ο συνεχής επανακαθορισμός των prompts αποτελεί μια δύσκολη και χρονοβόρα διαδικασία. Κάθε φορά που προκύπτει ανεπιθύμητη συμπεριφορά, πρέπει να γίνονται αλλαγές στις βασικές εντολές που καθοδηγούν τη λειτουργία του μοντέλου. Αυτές οι αλλαγές μπορεί να λύνουν ένα πρόβλημα και να δημιουργούν άλλα, καθιστώντας την εξέλιξη του μοντέλου ένα διαρκές και περίπλοκο έργο.
Επιπλέον, οι χρήστες συχνά κάνουν ερωτήσεις απρόβλεπτες ή σε πλαίσια που οι προγραμματιστές δεν έχουν φανταστεί, όπως φάνηκε και στην υποτιθέμενα αθώα ερώτηση «ποιο είναι το επώνυμό σου».
Υπάρχει επίσης μια εγγενής ένταση ανάμεσα στη σταθερή ταυτότητα ενός chatbot και την ευελιξία του να προσαρμόζεται. Αν ένα μοντέλο αλλάζει διαρκώς τη συμπεριφορά του, μπορεί να χαθεί η συνέπεια που περιμένουν οι χρήστες.
Τέλος, παρόμοια περιστατικά —αν και όχι τόσο ακραία— έχουν συμβεί και με άλλες ακριβές τεχνητές νοημοσύνες. Το Claude Max της Anthropic κοστίζει 200 δολάρια τον μήνα, το Google Gemini Ultra ζητά 250, και το ChatGPT Pro φτάνει επίσης τα 200. Κανένα από αυτά, ωστόσο, δεν είναι απολύτως απαλλαγμένο από λάθη ή «παραισθήσεις».
Αυτά τα σφάλματα δεν είναι ένδειξη χαμηλής ποιότητας, αλλά φυσικό επακόλουθο της ίδιας της αρχιτεκτονικής των μοντέλων. Η αύξηση της υπολογιστικής ισχύος τα κάνει πιο εύγλωττα και ικανά να παράγουν σύνθετες απαντήσεις — αλλά δεν λύνει το βασικό πρόβλημα: ότι ούτε το πιο εξελιγμένο chatbot έχει πραγματική κατανόηση του κόσμου.
Πηγή: Εφημερίδα La Republica συντάκτης Pier Luigi Pisa 15/7/2025
Ιστότοπος: https://www.repubblica.it/tecnologia/2025/07/15/news/grok_cognome_hitler-424732841/?rss
Επιμέλεια Δ.Φυλακτόπουλος