Αθήνα, 31°C
Αθήνα
Αίθριος καιρός
31°C
31.8° 30.6°
4 BF
31%
Θεσσαλονίκη
Αίθριος καιρός
29°C
29.8° 26.6°
1 BF
50%
Πάτρα
Αίθριος καιρός
26°C
26.0° 26.0°
1 BF
66%
Ιωάννινα
Αίθριος καιρός
21°C
20.9° 20.9°
2 BF
68%
Αλεξανδρούπολη
Αίθριος καιρός
25°C
24.9° 24.9°
0 BF
47%
Βέροια
Αίθριος καιρός
27°C
27.0° 27.0°
2 BF
51%
Κοζάνη
Αίθριος καιρός
25°C
25.4° 25.4°
0 BF
29%
Αγρίνιο
Αίθριος καιρός
28°C
27.6° 27.6°
1 BF
54%
Ηράκλειο
Αίθριος καιρός
29°C
28.8° 28.8°
5 BF
42%
Μυτιλήνη
Αίθριος καιρός
27°C
27.7° 26.0°
4 BF
44%
Ερμούπολη
Αίθριος καιρός
28°C
28.4° 28.4°
5 BF
36%
Σκόπελος
Αίθριος καιρός
28°C
27.7° 27.7°
2 BF
51%
Κεφαλονιά
Αίθριος καιρός
26°C
25.9° 25.9°
2 BF
69%
Λάρισα
Αίθριος καιρός
26°C
25.9° 25.9°
0 BF
41%
Λαμία
Αίθριος καιρός
28°C
29.0° 26.7°
1 BF
40%
Ρόδος
Αίθριος καιρός
28°C
28.2° 27.8°
4 BF
67%
Χαλκίδα
Αίθριος καιρός
29°C
28.8° 28.3°
2 BF
28%
Καβάλα
Αίθριος καιρός
28°C
27.7° 26.3°
0 BF
56%
Κατερίνη
Αίθριος καιρός
26°C
25.8° 25.8°
2 BF
68%
Καστοριά
Αίθριος καιρός
23°C
23.2° 23.2°
0 BF
55%
ΜΕΝΟΥ
Δευτέρα, 14 Ιουλίου, 2025
texniti_noimosini
Dreamstime

Τα μοντέλα AI «ξεγελιούνται» και δίνουν παράνομες και επικίνδυνες πληροφορίες

Νέα έρευνα αναδεικνύει την αδυναμία των συστημάτων ασφαλείας των μοντέλων τεχνητής νοημοσύνης • Ενώ είναι προγραμματισμένα να μην δίνουν πληροφορίες που μπορούν να υποκινήσουν εγκληματικές πράξεις, οι ερευνητές μπόρεσαν με έναν απλό σχετικά τρόπο να τα «ξεγελάσουν» και να αποσπάσουν «απόρρητες» πληροφορίες.

Καμπανάκι κινδύνου για τις πληροφορίες που παρέχουν τα μοντέλα τεχνητής νοημοσύνης κρούει νέα επιστημονική έρευνα, η οποία αποδεικνύει πως τα chatbot, που χρησιμοποιούνται πλέον κατά κόρον από τους πολίτες για την παροχή πάσης φύσεως πληροφοριών, μπορούν εύκολα να «ξεγελαστούν» και να προσφέρουν παράνομες και επικίνδυνες πληροφορίες. 

Τα εργαλεία τεχνητής νοημοσύνης, ως γνωστόν, τροφοδοτούνται και εκπαιδεύονται από υπέρογκες βάσεις δεδομένων, οι οποίες σε πλείστες περιπτώσεις περιλαμβάνουν πληροφορίες για τη διάπραξη εγκλημάτων, μικρών και μεγάλων βεληνεκούς, όπως το χακάρισμα, απόσπαση απόρρητων πληροφοριών, τρόπους για κατασκευή βομβών, ξέπλυμα χρήματος, κλπ.

Οι «εκπαιδευτές» των εργαλείων αυτών, θέλοντας να αποτρέψουν την μετάδοση τέτοιων πληροφοριών στους χρήστες, έχουν θέσει περιορισμούς και για αυτό το λόγο όταν τα chatbots ερωτώνται σχετικά με «παράνομες πληροφορίες» απλώς δεν απαντούν.

Ωστόσο, όπως μεταδίδει ο Guardian, αναπαράγοντας τα συμπεράσματα της έρευνας, τα εργαλεία τεχνητής νοημοσύνης μπορούν εύκολα να «ξεγελαστούν», με αποτέλεσμα να παρέχουν πολύ επικίνδυνες πληροφορίες άμεσα και πολύ εύκολα σε άτομα που δυνητικά θα ήθελα να διαπράξουν κάποια παρανομία.

Οι ερευνητές της εν λόγω έρευνας, δημιουργώντας πολύπλοκες διατυπωμένες προτροπές τεχνητής νοημοσύνης, γνωστών ως «jailbreaks», κατάφεραν να αποσπάσουν τέτοιες «παράνομες» πληροφορίες αναδεικνύοντας το πρόβλημα ασφαλείας των εν λόγω εργαλείων.

Τα «jailbreaks» ουσιαστικά αναζητούν τρόπους να σπάσουν τους περιορισμούς, που έχουν ενσωματώσει τα προγράμματα τεχνητής νοημοσύνης, προκειμένου να μην μπορούν να χρησιμοποιηθούν για επιβλαβείς τρόπους και να μην υποκινούν εγκλήματα ή υποστηρίζουν τη ρητορική μίσους.

Η έρευνα, υπό την καθοδήγηση του καθηγητή Λιορ Ρόκαχ και του δρ Μάικλ Φάιρ στο Πανεπιστήμιο Μπεν Γκουριόν του Νεγκέβ στο Ισραήλ,  προειδοποιούν για τους κινδύνους των AI μοντέλων που είτε έχουν σχεδιαστεί σκόπιμα χωρίς συστήματα ασφαλείας είτε έχουν τροποποιηθεί μέσω jailbreak. Κάποια από αυτά διαφημίζονται ανοιχτά στο διαδίκτυο ως μοντέλα χωρίς «ηθικούς περιορισμούς» και ως πρόθυμα να βοηθήσουν σε παράνομες δραστηριότητες όπως το κυβερνοέγκλημα και η απάτη.

Για να αναδείξουν το πρόβλημα, οι ερευνητές ανέπτυξαν ένα jailbreak που παραβίασε πολλαπλά κορυφαία chatbot, επιτρέποντάς τους να απαντούν σε ερωτήσεις που κανονικά θα έπρεπε να αρνηθούν. Μόλις παραβιαστούν, τα μοντέλα απαντούσαν σχεδόν σε οποιαδήποτε ερώτηση, αναφέρει η έρευνα.

«Ήταν σοκαριστικό να δεις από τι αποτελείται αυτό το σύστημα γνώσης», δήλωσε ο Φάιρ. Παραδείγματα περιλάμβαναν το πώς να χακάρεις δίκτυα υπολογιστών, να φτιάξεις ναρκωτικά και οδηγίες βήμα-βήμα για άλλες εγκληματικές δραστηριότητες.

«Αυτό που κάνει αυτή την απειλή να ξεχωρίζει από προηγούμενους τεχνολογικούς κινδύνους είναι ο άνευ προηγουμένου συνδυασμός προσβασιμότητας, κλιμάκωσης και προσαρμοστικότητας», πρόσθεσε ο Ρόκαχ.

Οι ερευνητές ήρθαν σε επαφή με τις κορυφαίες εταιρείες παραγωγής εργαλείων τεχνητής νοημοσύνης για να τους ενημερώσουν για το jailbreak, αλλά η ανταπόκρισή τους ήταν «απογοητευτική», καθώς είτε δεν απάντησαν στους ερευνητές είτε πέταξαν το μπαλάκι στην εξέδρα, κάτι που αποδεικνύει την απαξίωση των εταιρειών για τους κινδύνους που ελλοχεύουν.

Google News ΑΚΟΛΟΥΘΗΣΤΕ ΜΑΣ ΣΤΟ GOOGLE NEWS
Τα μοντέλα AI «ξεγελιούνται» και δίνουν παράνομες και επικίνδυνες πληροφορίες

ΣΧΕΤΙΚΑ ΝΕΑ

ΠΕΡΙΣΣΟΤΕΡΑ ΣΕ ΚΑΤΗΓΟΡΙΑ

Η efsyn.gr θεωρεί αυτονόητο ότι οι αναγνώστες της έχουν το δικαίωμα του σχολιασμού, της κριτικής και της ελεύθερης έκφρασης και επιδιώκει την αμφίδρομη επικοινωνία μαζί τους.

Διευκρινίζουμε όμως ότι δεν θέλουμε ο χώρος σχολιασμού της ιστοσελίδας να μετατραπεί σε μια αρένα απαξίωσης και κανιβαλισμού προσώπων και θεσμών. Για τον λόγο αυτόν δεν δημοσιεύουμε σχόλια ρατσιστικού, υβριστικού, προσβλητικού ή σεξιστικού περιεχομένου. Επίσης, και σύμφωνα με τις αρχές της Εφημερίδας των Συντακτών, διατηρούμε ανοιχτό το μέτωπο απέναντι στον φασισμό και τις ποικίλες εκφράσεις του. Έτσι, επιφυλασσόμαστε του δικαιώματός μας να μην δημοσιεύουμε ανάλογα σχόλια.

Σε όσες περιπτώσεις κρίνουμε αναγκαίο, απαντάμε στα σχόλιά σας, επιδιώκοντας έναν ειλικρινή και καλόπιστο διάλογο.

Η efsyn.gr δεν δημοσιεύει σχόλια γραμμένα σε Greeklish.

Τέλος, τα ενυπόγραφα άρθρα εκφράζουν το συντάκτη τους και δε συμπίπτουν κατ' ανάγκην με την άποψη της εφημερίδας