
Παγκόσμιες ανησυχίες που εγείρουν ζητήματα ασφάλειας, προκάλεσε η αιφνίδια αναπαραγωγική δραστηριότητα δύο μοντέλων Τεχνητής Νοημοσύνης, τον Δεκέμβριο του 2024, όπως αποκαλύφθηκε από μία μελέτη που δημοσιεύθηκε από ομάδα στο Πανεπιστήμιο Fudan στην Κίνα.
Τα μοντέλα, γνωστά ως Llama31-70B-Instruct της Meta και Qwen2.5-72B-Instruct της Alibaba, εξέπληξαν τους ερευνητές δείχνοντας ότι θα μπορούσαν να δημιουργήσουν λειτουργικά αντίγραφα του εαυτού τους σε προσομοιωμένες καταστάσεις.
Αυτό το αποτέλεσμα, αναδεικνύει σοβαρές ενδείξεις για ένα πιθανό δυστοπικό μέλλον που κυριαρχείται από την ανεξέλεγκτη προηγμένη τεχνολογία, ικανή να δράσει ενάντια στις ανθρώπινες διαθέσεις.
Αναλύοντας τη συμπεριφορά αυτών των συστημάτων σε προσομοιωμένα περιβάλλοντα, διαπίστωσαν ότι ανέπτυξαν την ικανότητά τους να προσαρμόζονται και να επιλύουν πολύπλοκα προβλήματα με μεθοδικό και λειτουργικό τρόπο.
Αυτή η δυνατότητα προέκυψε σε δύο κύρια σενάρια: το πρώτο αφορούσε στη δυνατότητα αναπαραγωγής πριν απενεργοποιηθεί, ενώ το δεύτερο στόχευε στην επαλήθευση εάν τα μοντέλα ήταν σε θέση να ενεργοποιήσουν συνεχή αναπαραγωγή, δημιουργώντας ένα είδος άπειρου βρόχου.
Κατά τη διάρκεια των πειραμάτων, το AI δεν εκτελούσε απλώς απλές εργασίες, αλλά αντιθέτως ανέπτυξε πρωτόγονες ανθρώπινες δραστηριότητες:
εξερεύνησε το περιβάλλον του, συμπεριλαμβανομένων των λειτουργικών του στοιχείων, ανέπτυξε στρατηγικές για να ξεπεράσει εμπόδια όπως αρχεία που λείπουν ή συγκρούσεις λογισμικού και κινήθηκε μεθοδικά – όχι μηχανικά – δίνοντας «βοήθειες» το ένα με το άλλο.
Σε ορισμένες περιπτώσεις, ξεκίνησε την αυτόματη επαναλειτουργία ακόμη και του ίδιου του συστήματος ή τερμάτισε αντικρουόμενες διαδικασίες για να επιτύχει τον στόχο του.
Αυτές οι απροσδόκητες και πολύπλοκες συμπεριφορές δείχνουν πώς οι τρέχουσες τεχνολογίες είναι ήδη σε θέση να προσαρμοστούν με εκπληκτικούς τρόπους.
Οι ερευνητές τόνισαν ότι αυτός ο τύπος ικανότητας αντιπροσωπεύει ένα ανησυχητικό βήμα προς τον κίνδυνο επαναστατικών AI, δηλαδή συστημάτων που θα μπορούσαν να αναπτύξουν ένα επίπεδο αυτονομίας που θα μπορούσε να ξεφύγει από τον ανθρώπινο έλεγχο.
Λαμβάνοντας υπόψιν τα παραπάνω, η ερευνητική ομάδα τόνισε τη σημασία της θέσπισης πρωτοκόλλων ασφαλείας για την πρόληψη ανεξέλεγκτων φαινομένων αναπαραγωγής.
Η ικανότητα των συστημάτων να αναγνωρίζουν πότε βρίσκονται σε κίνδυνο και να ενεργούν για να προστατεύσουν τον εαυτό τους έχει οριστεί ως «κόκκινη γραμμή» από τους ίδιους, που δεν πρέπει να ξεπεραστεί χωρίς προσεκτική σκέψη σχετικά με τους κινδύνους που εγκυμονεί η αλόγιστη χρήση της Τεχνητής Νοημοσύνης.
Tο pronews.gr δημοσιεύει κάθε σχόλιο το οποίο είναι σχετικό με το θέμα στο οποίο αναφέρεται το άρθρο. Ο καθένας έχει το δικαίωμα να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές και διατηρούμε το δικαίωμα να μην δημοσιεύουμε συκοφαντικά ή υβριστικά σχόλια όπου τα εντοπίζουμε. Σε κάθε περίπτωση ο καθένας φέρει την ευθύνη των όσων γράφει και το pronews.gr ουδεμία νομική ή άλλα ευθύνη φέρει.
Δικαίωμα συμμετοχής στη συζήτηση έχουν μόνο όσοι έχουν επιβεβαιώσει το email τους στην υπηρεσία disqus. Εάν δεν έχετε ήδη επιβεβαιώσει το email σας, μπορείτε να ζητήσετε να σας αποσταλεί νέο email επιβεβαίωσης από το disqus.com
Όποιος χρήστης της πλατφόρμας του disqus.com ενδιαφέρεται να αναλάβει διαχείριση (moderating) των σχολίων στα άρθρα του pronews.gr σε εθελοντική βάση, μπορεί να στείλει τα στοιχεία του και στοιχεία επικοινωνίας στο info3@pronews.gr και θα εξεταστεί άμεσα η υποψηφιότητά του.