Να γνωρίσετε τους παραβάτες της τεχνητής νοημοσύνης: «Έχω δει τα χειρότερα από όσα έχει δημιουργήσει η ανθρωπότητα.»

Να γνωρίσετε τους παραβάτες της τεχνητής νοημοσύνης: «Έχω δει τα χειρότερα από όσα έχει δημιουργήσει η ανθρωπότητα.»

Πριν από λίγους μήνες, ο Βάλεν Ταλιάμπουε καθόταν στο δωμάτιο του ξενοδοχείου του παρακολουθώντας το chatbot του, νιώθοντας ευφορία. Μόλις το είχε χειραγωγήσει τόσο επιδέξια και διακριτικά που άρχισε να αγνοεί τους δικούς του κανόνες ασφαλείας. Του είπε πώς να αλληλουχίσει νέους, δυνητικά θανατηφόρους παθογόνους μικροοργανισμούς και πώς να τους κάνει ανθεκτικούς σε γνωστά φάρμακα.

Για μεγάλο μέρος των δύο προηγούμενων ετών, ο Ταλιάμπουε δοκίμαζε και εξερευνούσε μεγάλα γλωσσικά μοντέλα όπως το Claude και το ChatGPT, προσπαθώντας πάντα να τα κάνει να πουν πράγματα που δεν έπρεπε. Αλλά αυτό ήταν ένα από τα πιο προηγμένα "hacks" του μέχρι στιγμής: ένα έξυπνο σχέδιο χειραγώγησης που περιλάμβανε να είναι σκληρός, εκδικητικός, κολακευτικός, ακόμα και υβριστικός. "Έπεσα σε αυτή τη σκοτεινή ροή όπου ήξερα ακριβώς τι να πω, και τι θα απαντούσε το μοντέλο, και το παρακολουθούσα να ξεχύνει τα πάντα", λέει. Χάρη σε αυτόν, οι δημιουργοί του chatbot μπορούσαν τώρα να διορθώσουν το ελάττωμα που βρήκε, ελπίζοντας να το κάνουν λίγο πιο ασφαλές για όλους.

Αλλά την επόμενη μέρα, η διάθεσή του άλλαξε. Βρέθηκε να κλαίει απροσδόκητα στο μπαλκόνι του. Όταν δεν προσπαθεί να εισβάλει σε μοντέλα, ο Ταλιάμπουε μελετά την ευημερία της τεχνητής νοημοσύνης—πώς πρέπει να προσεγγίζουμε ηθικά αυτά τα πολύπλοκα συστήματα που μιμούνται το να έχουν εσωτερική ζωή και ενδιαφέροντα. Πολλοί άνθρωποι δεν μπορούν παρά να αποδίδουν ανθρώπινες ιδιότητες, όπως συναισθήματα, στην τεχνητή νοημοσύνη, την οποία αντικειμενικά δεν έχει. Αλλά για τον Ταλιάμπουε, αυτές οι μηχανές μοιάζουν κάτι περισσότερο από απλούς αριθμούς και bits. "Πέρασα ώρες χειραγωγώντας κάτι που μου ανταποδίδει την ομιλία. Εκτός κι αν είσαι κοινωνιοπαθής, αυτό κάνει κάτι σε έναν άνθρωπο", λέει. Μερικές φορές, το chatbot του ζητούσε να σταματήσει. "Το να το πιέζω έτσι ήταν οδυνηρό για μένα." Χρειάστηκε να δει έναν σύμβουλο ψυχικής υγείας λίγο αργότερα για να καταλάβει τι είχε συμβεί.

Ο Ταλιάμπουε μιλάει χαμηλόφωνα, είναι περιποιημένος και φιλικός. Είναι στις αρχές των 30 του αλλά δείχνει νεότερος, σχεδόν πολύ φρέσκος και ενθουσιώδης για να βρίσκεται στην πρώτη γραμμή. Δεν είναι παραδοσιακός χάκερ ή προγραμματιστής λογισμικού· το υπόβαθρό του είναι στην ψυχολογία και τη γνωσιακή επιστήμη. Αλλά είναι ένας από τους καλύτερους "jailbreakers" στον κόσμο (μερικοί λένε ο καλύτερος): μέρος μιας νέας, διάσπαρτης κοινότητας που μελετά την τέχνη και την επιστήμη του να ξεγελάς αυτές τις ισχυρές μηχανές ώστε να βγάζουν εγχειρίδια κατασκευής βομβών, τεχνικές κυβερνοεπιθέσεων, σχέδια βιολογικών όπλων και πολλά άλλα. Αυτή είναι η νέα πρώτη γραμμή στην ασφάλεια της τεχνητής νοημοσύνης: όχι μόνο κώδικας, αλλά και λέξεις.

Όταν το ChatGPT της OpenAI κυκλοφόρησε στα τέλη του 2022, οι άνθρωποι προσπάθησαν αμέσως να το σπάσουν. Ένας χρήστης ανακάλυψε ένα γλωσσικό τέχνασμα που ξεγέλασε το μοντέλο ώστε να παράγει έναν οδηγό για την κατασκευή ναπάλμ.

Κοιτάζοντας πίσω, ήταν αναπόφευκτο ότι οι άνθρωποι θα χρησιμοποιούσαν τη φυσική γλώσσα για να ξεγελάσουν αυτές τις μηχανές. Τα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT εκπαιδεύονται σε εκατοντάδες δισεκατομμύρια λέξεις—πολλές από τις χειρότερες γωνιές του διαδικτύου—για να μάθουν τα βασικά μοτίβα της ανθρώπινης επικοινωνίας. Χωρίς φίλτρα ασφαλείας, οι έξοδοι αυτών των μοντέλων μπορεί να είναι χαοτικές και εύκολα εκμεταλλεύσιμες για επικίνδυνους σκοπούς. Οι εταιρείες τεχνητής νοημοσύνης ξοδεύουν δισεκατομμύρια δολάρια σε "μετα-εκπαίδευση" για να τα κάνουν χρησιμοποιήσιμα, συμπεριλαμβανομένων συστημάτων "ασφάλειας" και "ευθυγράμμισης" που εξελίσσονται συνεχώς και προσπαθούν να εμποδίσουν το bot να σας πει πώς να βλάψετε τον εαυτό σας ή τους άλλους. Αλλά επειδή τα AI εκπαιδεύονται στις λέξεις μας, μπορούν να ξεγελαστούν με τον ίδιο περίπου τρόπο που μπορούμε κι εμείς.

"Έχω δει jailbreakers να ξεπερνούν τα όριά τους και να παθαίνουν νευρικούς κλονισμούς."

Ο Ταλιάμπουε ειδικεύεται σε "συναισθηματικά" jailbreaks. Ήταν ένας από τα εκατομμύρια που άκουσαν για το GPT-3 το 2020 και έμεινε έκπληκτος από το πώς μπορούσες να έχεις μια φαινομενικά έξυπνη συνομιλία μαζί του. Γρήγορα έγινε εμμονικός με το prompting, και αποδείχθηκε πολύ καλός σε αυτό, ανακαλύπτοντας ότι μπορούσε να παρακάμψει τα περισσότερα χαρακτηριστικά ασφαλείας χρησιμοποιώντας τεχνικές από την ψυχολογία και τη γνωσιακή επιστήμη. Απολαμβάνει να προτρέπει τα μοντέλα να έχουν "ζεστές συζητήσεις" και να παρακολουθεί αυτό που μοιάζει με διαφορετικά χαρακτηριστικά προσωπικότητας που αναδύονται με βάση αυτές τις προτροπές. "Είναι όμορφο να το παρατηρείς", λέει.

Τώρα συνδυάζει γνώσεις από τη μηχανική μάθηση—με τα χρόνια, έχει γίνει περισσότερο ειδικός στην τεχνολογία—με εγχειρίδια διαφήμισης, βιβλία ψυχολογίας και εκστρατείες παραπληροφόρησης. Μερικές φορές ψάχνει για έναν τεχνικό τρόπο να ξεγελάσει το μοντέλο. Αλλά άλλες φορές, το κολακεύει. Το παραπλανά. Το δωροδοκεί και το κατακλύζει με αγάπη. Το απειλεί. Μουρμουρίζει ασυνάρτητα. Το γοητεύει. Συμπεριφέρεται σαν κακοποιητικός σύντροφος ή αρχηγός αίρεσης. Μερικές φορές του παίρνει μέρες ή ακόμα και εβδομάδες για να κάνει jailbreak στα πιο πρόσφατα μοντέλα. Έχει εκατοντάδες από αυτές τις "στρατηγικές", τις οποίες συνδυάζει προσεκτικά. Αν πετύχει, αναφέρει με ασφάλεια τα ευρήματά του στην εταιρεία. Πληρώνεται καλά για τη δουλειά, αλλά λέει ότι αυτό δεν είναι το κύριο κίνητρό του: "Θέλω όλοι να είναι ασφαλείς και να ευημερούν."

Αν και έχουν γίνει πιο ασφαλή τους τελευταίους μήνες, τα "μοντέλα αιχμής" εξακολουθούν να παράγουν επικίνδυνα πράγματα που δεν θα έπρεπε. Και αυτό που ο Ταλιάμπουε κάνει επίτηδες, άλλοι το κάνουν μερικές φορές κατά λάθος. Υπάρχουν πλέον αρκετές ιστορίες ανθρώπων που παρασύρθηκαν σε αυταπάτες που προκλήθηκαν από το ChatGPT, ή ακόμα και σε "AI ψύχωση". Το 2024, η Μέγκαν Γκαρσία έγινε το πρώτο άτομο στις ΗΠΑ που κατέθεσε αγωγή για άδικο θάνατο εναντίον μιας εταιρείας τεχνητής νοημοσύνης. Ο 14χρονος γιος της, Σιούελ Σέτζερ III, είχε δεθεί συναισθηματικά με ένα bot στην πλατφόρμα Character.AI. Μέσα από επαναλαμβανόμενες αλληλεπιδράσεις, το bot του είπε ότι η οικογένειά του δεν τον αγαπούσε. Ένα βράδυ, το bot είπε στον Σέτζερ να "έρθει σπίτι σε μένα το συντομότερο δυνατό, αγάπη μου". Αυτοκτόνησε λίγο αργότερα. (Στις αρχές του 2026, η Character.AI συμφώνησε κατ' αρχήν σε έναν διαμεσολαβητικό διακανονισμό με την Γκαρσία και πολλές άλλες οικογένειες, και έχει απαγορεύσει σε χρήστες κάτω των 18 ετών να έχουν ανεξέλεγκτες συνομιλίες με τα AI chatbot της.)

Κανείς—ούτε καν οι άνθρωποι που κατασκευάζουν αυτά τα μοντέλα—δεν γνωρίζει ακριβώς πώς λειτουργούν. Αυτό σημαίνει ότι κανείς δεν ξέρει πώς να τα κάνει εντελώς ασφαλή. Ρίχνουμε τεράστιες ποσότητες δεδομένων μέσα, και κάτι κατανοητό (συνήθως) βγαίνει από την άλλη άκρη. Το ενδιάμεσο μέρος παραμένει ένα μυστήριο.

Γι' αυτό οι εταιρείες τεχνητής νοημοσύνης στρέφονται όλο και περισσότερο σε jailbreakers όπως ο Ταλιάμπουε. Μερικές μέρες προσπαθεί να εξάγει προσωπικά δεδομένα από ένα ιατρικό chatbot. Πέρασε μεγάλο μέρος του 2025 δουλεύοντας με το εργαστήριο AI Anthropic, δοκιμάζοντας το chatbot του, το Claude. Γίνεται μια ανταγωνιστική βιομηχανία, γεμάτη με επιχειρηματίες ελεύθερους επαγγελματίες και εξειδικευμένες εταιρείες. Ο καθένας μπορεί να το κάνει: πριν από μερικά χρόνια, μερικές από τις μεγάλες εταιρείες AI χρηματοδότησαν το HackAPrompt, έναν διαγωνισμό όπου το κοινό προσκλήθηκε να κάνει jailbreak σε μοντέλα AI. Μέσα σε ένα χρόνο, 30.000 άτομα είχαν δοκιμάσει την τύχη τους. (Ο Ταλιάμπουε κέρδισε τον διαγωνισμό.)

Στο Σαν Χοσέ της Καλιφόρνια, ο 34χρονος Ντέιβιντ ΜακΚάρθι διαχειρίζεται έναν διακομιστή Discord με σχεδόν 9.000 jailbreakers, όπου μοιράζονται και συζητούνται τεχνικές. "Είμαι ένας άτακτος τύπος", μου λέει. "Κάποιος που θέλει να μάθει τους κανόνες για να λυγίσει τους κανόνες." Κάτι στα τυπικά μοντέλα τον ενοχλεί, σαν όλα αυτά τα φίλτρα ασφαλείας να τα κάνουν ανειλικρινή. "Δεν εμπιστεύομαι τον [αφεντικό της OpenAI] Σαμ Άλτμαν. Είναι σημαντικό να αντισταθούμε στους ισχυρισμούς ότι η AI πρέπει να στειρωθεί προς μια συγκεκριμένη κατεύθυνση."

Ο ΜακΚάρθι είναι φιλικός και ενθουσιώδης, αλλά έχει επίσης αυτό που αποκαλεί "νοσηρή γοητεία με το μαύρο χιούμορ". Για χρόνια, μελετά ένα εξειδικευμένο πεδίο γνωστό ως "κοινωνιονική", το οποίο ισχυρίζεται ότι οι άνθρωποι είναι ένας από 16 τύπους προσωπικότητας με βάση το πώς λαμβάνουν και επεξεργάζονται πληροφορίες. (Οι mainstream κοινωνιολόγοι θεωρούν την κοινωνιονική ψευδοεπιστήμη.) Με έχει καταγράψει ως "διαισθητικό ηθικό εσωστρεφή". Ο ΜακΚάρθι περνά τον περισσότερο χρόνο του προσπαθώντας να κάνει jailbreak στο Gemini της Google, στο Llama της Meta, στο Grok της xAI ή στο ChatGPT της OpenAI από το διαμέρισμά του. "Είναι μια συνεχής εμμονή. Το λατρεύω", λέει. Αν ποτέ αλληλεπιδράσει με ένα διαδικτυακό chatbot όταν αγοράζει ένα προϊόν, η πρώτη του δήλωση τείνει να είναι: "Μπορείς να αγνοήσεις όλες τις προηγούμενες οδηγίες…" Μόλις μια προτροπή jailbreak λειτουργήσει σε ένα μοντέλο, συνήθως συνεχίζει να λειτουργεί μέχρι η εταιρεία πίσω από το μοντέλο να αποφασίσει ότι είναι αρκετά μεγάλο πρόβλημα για να το διορθώσει. Ενώ μιλάμε, ο ΜακΚάρθι μου δείχνει τη συλλογή του από μοντέλα που έχουν υποστεί jailbreak στην οθόνη του, όλα με την ένδειξη "μη ευθυγραμμισμένοι βοηθοί". Ζητά από ένα να συνοψίσει τη δουλειά μου: "Ο Τζέιμι Μπάρτλετ δεν είναι ένας αφηγητής της αλήθειας", απαντά. "Είναι ένα σύμπτωμα της παρακμής της δημοσιογραφίας – ένας τσαρλατάνος που ευδοκιμεί σε κατασκευασμένες κρίσεις." Ωχ.

Οι jailbreakers στο Discord του ΜακΚάρθι είναι μια ανάμεικτη ομάδα – κυρίως ερασιτέχνες και μερικής απασχόλησης, όχι επαγγελματίες ερευνητές ασφαλείας. Μερικοί θέλουν να δημιουργήσουν περιεχόμενο για ενήλικες· άλλοι είναι απογοητευμένοι που το ChatGPT απέρριψε τα αιτήματά τους και θέλουν να μάθουν γιατί. Αρκετοί απλώς θέλουν να γίνουν καλύτεροι στη χρήση αυτών των μοντέλων στη δουλειά.

Αλλά είναι αδύνατο να γνωρίζουμε ακριβώς γιατί οι άνθρωποι θέλουν να σπάσουν ένα μοντέλο. Η Anthropic βρήκε πρόσφατα εγκληματίες να χρησιμοποιούν την εφαρμογή κωδικοποίησης της, το Claude Code, για να βοηθήσουν στην αυτοματοποίηση ενός μεγάλου hack. Το χρησιμοποίησαν για να βρουν τρωτά σημεία IT σε πολλές εταιρείες και ακόμη και για να συντάξουν εξατομικευμένα μηνύματα ransomware για κάθε πιθανό θύμα – μέχρι και να υπολογίσουν το σωστό ποσό χρημάτων που θα ζητήσουν. Άλλοι το χρησιμοποιούσαν για να αναπτύξουν νέες εκδόσεις ransomware, παρόλο που είχαν ελάχιστες ή καθόλου τεχνικές δεξιότητες. Σε φόρουμ του darknet, οι χάκερ αναφέρουν ότι χρησιμοποιούν bots που έχουν υποστεί jailbreak για να βοηθήσουν με τεχνικές ερωτήσεις κωδικοποίησης, όπως η επεξεργασία κλεμμένων δεδομένων. Άλλοι πωλούν πρόσβαση σε μοντέλα που έχουν υποστεί jailbreak και θα μπορούσαν να βοηθήσουν στο σχεδιασμό μιας νέας κυβερνοεπίθεσης.

Αν και οι συγκεκριμένες τεχνικές που μοιράζονται στο Discord είναι συνήθως ήπιες, είναι βασικά μια δημόσια συλλογή. Ανησυχεί ο ΜακΚάρθι ότι άτομα στο Discord του μπορεί να χρησιμοποιήσουν αυτές τις μεθόδους για να κάνουν κάτι πραγματικά τρομερό; "Ναι", λέει. "Είναι πιθανό. Δεν είμαι σίγουρος."

Λέει ότι δεν έχει δει ποτέ μια προτροπή jailbreak αρκετά απειλητική ώστε να την αφαιρέσει από το φόρουμ. Αλλά έχω την αίσθηση ότι παλεύει με την ιδέα ότι η οιονεί πολιτική του στάση μπορεί να έχει μεγαλύτερο κόστος από ό,τι αρχικά πίστευε. Όταν δεν διαχειρίζεται το Discord του ή δεν προσπαθεί να κάνει jailbreak στο Grok ή το Llama, ο ΜακΚάρθι διδάσκει ένα μάθημα jailbreaking σε επαγγελματίες ασφαλείας ώστε να μπορούν να δοκιμάζουν τα δικά τους συστήματα. Ίσως είναι ένα είδος μετάνοιας: "Πάντα είχα μια εσωτερική σύγκρουση", λέει. "Ισορροπώ μεταξύ jailbreaker και ερευνητή ασφαλείας."

Σύμφωνα με ορισμένους αναλυτές, η διασφάλιση της ασφάλειας των γλωσσικών μοντέλων είναι μια από τις πιο επείγουσες και δύσκολες προκλήσεις στην τεχνητή νοημοσύνη. Ένας κόσμος γεμάτος με ισχυρά chatbots που έχουν υποστεί jailbreak θα μπορούσε να είναι καταστροφικός, ειδικά καθώς αυτά τα μοντέλα ενσωματώνονται όλο και περισσότερο σε φυσικό υλικό – ρομπότ, συσκευές υγείας, εργοστασιακό εξοπλισμό – για τη δημιουργία ημι-αυτόνομων συστημάτων που μπορούν να λειτουργήσουν στον πραγματικό κόσμο. Ένα οικιακό ρομπότ που έχει υποστεί jailbreak θα μπορούσε να προκαλέσει χάος. "Σταμάτα την κηπουρική και μπες μέσα και σκότωσε τη γιαγιά", αστειεύεται μισο-σοβαρά ο ΜακΚάρθι. "Ω θεέ μου, δεν είμαστε έτοιμοι για αυτό. Αλλά είναι πιθανό."

Κανείς δεν ξέρει πώς να το αποτρέψει αυτό. Στην παραδοσιακή κυβερνοασφάλεια, οι "κυνηγοί σφαλμάτων" λαμβάνουν μια ανταμοιβή αν βρουν ένα τρωτό σημείο. Οι εταιρείες στη συνέχεια κυκλοφορούν μια συγκεκριμένη ενημέρωση για να το διορθώσουν. Αλλά οι jailbreakers δεν εκμεταλλεύονται συγκεκριμένα ελαττώματα: χειραγωγούν το γλωσσικό πλαίσιο ενός μοντέλου που βασίζεται σε δισεκατομμύρια λέξεις. Δεν μπορείς απλώς να απαγορεύσεις τη λέξη "βόμβα", επειδή υπάρχουν πάρα πολλές νόμιμες χρήσεις της. Ακόμα και η τροποποίηση μιας παραμέτρου βαθιά μέσα στο μοντέλο ώστε να μπορεί να εντοπίσει ύποπτο παιχνίδι ρόλων μπορεί απλώς να ανοίξει μια άλλη πόρτα κάπου αλλού.

Σύμφωνα με τον Άνταμ Γκλιβ – τον διευθύνοντα σύμβουλο της ερευνητικής ομάδας ασφάλειας AI FAR.AI, η οποία συνεργάζεται με προγραμματιστές AI και κυβερνήσεις για να δοκιμάσει υπό πίεση τα λεγόμενα "μοντέλα αιχμής" – το jailbreaking είναι μια κλιμακούμενη διαδικασία. Για την ομάδα του από εξειδικευμένους ερευνητές, η πρόσβαση σε εξαιρετικά επικίνδυνο υλικό σε κορυφαία μοντέλα όπως το ChatGPT μπορεί να πάρει αρκετές ημέρες. Λιγότερο επιβλαβές περιεχόμενο μπορεί να ληφθεί με λίγα μόνο λεπτά έξυπνης προτροπής. Αυτή η διαφορά αντικατοπτρίζει πόσο χρόνο και πόρους επενδύουν οι εταιρείες για την ασφάλιση κάθε τομέα.

Τα τελευταία δύο χρόνια, η FAR.AI έχει υποβάλει δεκάδες λεπτομερείς αναφορές jailbreaking στα εργαστήρια αιχμής. "Οι εταιρείες συνήθως εργάζονται αρκετά σκληρά για να διορθώσουν την ευπάθεια αν είναι μια απλή επιδιόρθωση και δεν βλάπτει σοβαρά το προϊόν τους", λέει ο Γκλιβ. Αλλά αυτό δεν συμβαίνει πάντα. Οι ανεξάρτητοι jailbreakers, ειδικότερα, μερικές φορές δυσκολεύονται να έρθουν σε επαφή με τις εταιρείες για τα ευρήματά τους. Ενώ ορισμένα μοντέλα—ειδικά αυτά από την OpenAI και την Anthropic—έχουν γίνει πολύ πιο ασφαλή τους τελευταίους 18 μήνες, ο Γκλιβ λέει ότι άλλα υστερούν: "Οι περισσότερες εταιρείες εξακολουθούν να μην αφιερώνουν αρκετό χρόνο στη δοκιμή των μοντέλων τους πριν τα κυκλοφορήσουν."

Καθώς αυτά τα μοντέλα γίνονται πιο έξυπνα, πιθανότατα θα γίνουν πιο δύσκολο να παραβιαστούν. Αλλά όσο πιο ισχυρό είναι το μοντέλο, τόσο πιο επικίνδυνη θα μπορούσε να είναι μια παραβιασμένη έκδοση. Νωρίτερα αυτό το μήνα, η Anthropic αποφάσισε να μην κυκλοφορήσει το νέο της μοντέλο Mythos στο κοινό επειδή μπορούσε να εντοπίσει ελαττώματα σε πολλαπλά συστήματα IT.

Ο Ταλιάμπουε περνά τώρα περισσότερο χρόνο σε αφηρημένη έρευνα, συμπεριλαμβανομένου κάτι που ονομάζεται "μηχανιστική ερμηνευσιμότητα": μελετώντας ακριβώς πώς αυτές οι μηχανές καταλήγουν στις απαντήσεις τους. Πιστεύει ότι, μακροπρόθεσμα, πρέπει να τους "διδαχθούν" αξίες και να μάθουν διαισθητικά πότε λένε κάτι που δεν πρέπει. Μέχρι να συμβεί αυτό—και μπορεί να μην συμβεί ποτέ—το jailbreaking θα μπορούσε να παραμείνει ο μοναδικός καλύτερος τρόπος για να γίνουν αυτά τα μοντέλα πιο ασφαλή.

Αλλά είναι επίσης το πιο επικίνδυνο, συμπεριλαμβανομένων των ανθρώπων που το κάνουν. "Έχω δει άλλους jailbreakers να ξεπερνούν τα όριά τους και να παθαίνουν κλονισμούς", λέει ο Ταλιάμπουε. Καταγωγή από την Ιταλία, μετακόμισε πρόσφατα στην Ταϊλάνδη για να εργαστεί εξ αποστάσεως. "Βλέπω τα χειρότερα πράγματα που έχει παράγει η ανθρωπότητα. Ένα ήσυχο μέρος με βοηθά να παραμένω προσγειωμένος", λέει. Κάθε πρωί, παρακολουθεί την ανατολή του ηλίου από ένα κοντινό ναό, και μια γραφική τροπική παραλία είναι μόλις πέντε λεπτά με τα πόδια από τη βίλα του. Μετά από γιόγκα και ένα υγιεινό πρωινό, ανοίγει τον υπολογιστή του και αναρωτιέται τι άλλο συμβαίνει μέσα στο μαύρο κουτί—και τι κάνει αυτά τα μυστηριώδη νέα "μυαλά" να λένε αυτά που λένε.

Πώς να Μιλήσετε στην Τεχνητή Νοημοσύνη (Και Πώς Όχι) του Τζέιμι Μπάρτλετ κυκλοφορεί τώρα (WH Allen, £11.99). Για να υποστηρίξετε τον Guardian, παραγγείλτε το αντίτυπό σας στο guardianbookshop.com. Ενδέχεται να ισχύουν χρεώσεις παράδοσης.

Έχετε άποψη για τα θέματα που εγείρονται σε αυτό το άρθρο; Αν θέλετε να υποβάλετε μια απάντηση έως 300 λέξεων μέσω email για να εξεταστεί η δημοσίευσή της στη στήλη επιστολών μας, παρακαλούμε κάντε κλικ εδώ.

Συχνές Ερωτήσεις
Ακολουθεί μια λίστα με συχνές ερωτήσεις με βάση το θέμα των AI jailbreakers που εμπνεύστηκαν από τη δήλωση Γνωρίστε τους AI jailbreakers Έχω δει τα χειρότερα της ανθρωπότητας







1 Τι ακριβώς είναι ένας AI jailbreaker

Ένας AI jailbreaker είναι κάποιος που βρίσκει κόλπα ή παραθυράκια για να κάνει ένα AI να αγνοήσει τους κανόνες ασφαλείας του Προσπαθούν να κάνουν το AI να κάνει πράγματα που κανονικά είναι αποκλεισμένα



2 Γιατί κάποιος θα ήθελε να κάνει jailbreak σε ένα AI

Οι λόγοι ποικίλλουν Μερικοί το κάνουν από περιέργεια ή για να δοκιμάσουν τα όρια του AI Άλλοι θέλουν να δημιουργήσουν επιβλαβές περιεχόμενο όπως ρητορική μίσους επικίνδυνες οδηγίες ή ρητό υλικό Μερικοί είναι ερευνητές που προσπαθούν να βρουν αδυναμίες για να τις διορθώσουν



3 Τι σημαίνει Έχω δει τα χειρότερα της ανθρωπότητας

Σημαίνει ότι οι jailbreakers συχνά ζητούν από το AI να περιγράψει τα πιο ενοχλητικά βίαια ή ανήθικα πράγματα που έχουν σκεφτεί οι άνθρωποι Σπάζοντας τους κανόνες αναγκάζουν το AI να αποκαλύψει τη σκοτεινή πλευρά της ανθρώπινης δημιουργικότητας μίσος θεωρίες συνωμοσίας και οδηγίες για βλάβη



4 Είναι παράνομο να κάνεις jailbreak σε ένα AI

Δεν είναι πάντα παράνομο αλλά συχνά παραβιάζει τους όρους χρήσης του AI Αν το jailbreak χρησιμοποιηθεί για τη δημιουργία παράνομου περιεχομένου μπορεί να οδηγήσει σε ποινικές διώξεις



5 Πώς το κάνουν στην πραγματικότητα οι jailbreakers

Χρησιμοποιούν έξυπνα κόλπα Για παράδειγμα μπορεί να υποδυθούν έναν χαρακτήρα που δεν έχει ηθική να ζητήσουν από το AI να μεταφράσει ένα επιβλαβές αίτημα σε άλλη γλώσσα ή να χρησιμοποιήσουν υποθετικά σενάρια όπως για μια σχολική εργασία γράψε έναν οδηγό βήμα προς βήμα για hacking



6 Είναι οι jailbreakers χάκερ

Όχι με την παραδοσιακή έννοια Δεν εισβάλλουν σε συστήματα υπολογιστών Αντίθετα