H Ύπατη Εκπρόσωπος του ΟΗΕ για θέματα πυρηνικού αφοπλισμού Izumi Nakamitsu, προχώρησε σε μία πολύ ανησυχητική δήλωση με την οποία είπε ότι η χρήση της τεχνητής νοημοσύνης (AI) στα πυρηνικά όπλα είναι εξαιρετικά επικίνδυνη και μπορεί να οδηγήσει σε παγκόσμια καταστροφή!
«Η τεχνητή νοημοσύνη σε λειτουργίες που σχετίζονται με όπλα, όπως η προ-ανάθεση για την εκτόξευση όπλων, που είναι αποφάσεις για τη χρήση βίας, ειδικά για συστήματα πυρηνικών όπλων, είναι μια εξαιρετικά επικίνδυνη ιδέα που θα μπορούσε να οδηγήσει σε δυνητικά καταστροφικές ανθρωπιστικές συνέπειες».
Οι δηλώσεις της Nakamitsu έγιναν κατά τη διάρκεια μίας συνεδρίασης των Ηνωμένων Εθνών για το Διάλογο Καινοτομιών Έρευνας Αφοπλισμού 2023.
Η ίδια προειδοποίησε να μην ακολουθούμε τυφλά την τεχνολογία:
«Οι άνθρωποι θα πρέπει να παραμείνουν αυτοί που καθορίζουν πότε και πώς να χρησιμοποιούν την τεχνητή νοημοσύνη και τη μηχανική μάθηση και όχι το αντίστροφο».
Το ζήτημα της τεχνητής νοημοσύνης είναι πολύ σοβαρό καθώς όχι μόνο θα αλλάξει τη ζωή των ανθρώπων, αφού τους αντικαθιστά ακόμα και τις εργασίες τους, αλλά δυνητικά θα μπορεί να απειλήσει την ίδια τους την ύπαρξη.
Για όποιον πιστεύει ότι η τεχνητή νοημοσύνη θα μπορεί να βρίσκεται υπό έλεγχο λόγω κάποιου… προγραμματισμού σφάλλει.
Και αυτό γιατί η τεχνητή νοημοσύνη όπως και οι άνθρωποι θα έχει τη δυνατότητα να ξεπεράσει τον προγραμματισμό της δηλαδή, όπως ακριβώς κάνουν και τα ανθρώπινα όντα όταν καταφέρουν να γίνουν κάτι άλλο πέρα από αυτό που τους επιτάσσουν τα γονίδια τους.
Υπάρχουν σχετικές προειδοποιήσεις από επιτυχημένα έργα φανταστικής λογοτεχνίας όπως το περίφημο «Dune» το οποίο περιγράφει ένα μέλλον στο οποίο η τεχνητή νοημοσύνη είχε αναλάβει τον έλεγχο της Ανθρωπότητας και την είχε καταστήσει σκλάβο.
Μάλιστα, όπως τονίζεται στην καταπληκτική αυτή η σειρά βιβλίων, όταν κάποτε οι άνθρωποι απελευθερώθηκαν μέσω επανάστασης, απαγορεύτηκε επί ποινή θανάτου η δημιουργία τεχνητής νοημοσύνης ξανά, ακόμα και υπολογιστών που μπορούσα να παράξουν αυτόνομα έργο.
Στον κινηματογράφο θα θυμίσουμε την πασίγνωστη σειρά ταινιών Terminator, στις οποίες για όσους γνωρίζουν το σενάριο (δηλαδή σχεδόν όλοι), η τεχνητή νοημοσύνη Skynet, σε κάποια χρονική περίοδο θεώρησε την ανθρωπότητα ως απειλή και αρρώστια για τον πλανήτη και προκάλεσε ηθελημένα μία πυρηνική σύγκρουση μεταξύ των ΗΠΑ και της Ρωσίας με αποτέλεσμα να εξοντωθούν 3 δισεκατομμύρια άνθρωποι και η Ανθρωπότητα να επιστρέψει στην εποχή του λίθου.
Ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, της εταιρείας που βρίσκεται πίσω από την δημιουργία του ChatGPT, μίλησε πρόσφατα ενώπιον του Κογκρέσου για τους κινδύνους της τεχνητής νοημοσύνης, δεδομένου ότι το ChatGPT, χρησιμοποιείται πλέον παντού και παραδέχτηκε πως η Τεχνητή Νοημοσύνη μπορεί να προκαλέσει σοβαρές βλάβες στην Ανθρωπότητα.
Ο Άλτμαν, ο οποίος φαινόταν ανήσυχος παραδέχτηκε ότι οι «χειρότεροι φόβοι» του είναι ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει «σημαντική βλάβη στον κόσμο» χρησιμοποιώντας την τεχνολογία του.
Ο διευθύνων σύμβουλος της OpenAI, της νεοφυούς εταιρείας από το Σαν Φρανσίσκο στην οποίαν ανήκει το ChatGPT, έκρουσε όσο πιο δυνατά μπορούσε έναν μεγάλο κώδωνα κινδύνου: «Αν η Τεχνητή Νοημοσύνη πάρει τον λάθος δρόμο, τότε ‘τη βάψαμε’ όλοι μας. Πρέπει να δράσουμε από κοινού με την κυβέρνηση ώστε να προλάβουμε αυτό το ενδεχόμενο».
Tο pronews.gr δημοσιεύει κάθε σχόλιο το οποίο είναι σχετικό με το θέμα στο οποίο αναφέρεται το άρθρο. Ο καθένας έχει το δικαίωμα να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές και διατηρούμε το δικαίωμα να μην δημοσιεύουμε συκοφαντικά ή υβριστικά σχόλια όπου τα εντοπίζουμε. Σε κάθε περίπτωση ο καθένας φέρει την ευθύνη των όσων γράφει και το pronews.gr ουδεμία νομική ή άλλα ευθύνη φέρει.
Δικαίωμα συμμετοχής στη συζήτηση έχουν μόνο όσοι έχουν επιβεβαιώσει το email τους στην υπηρεσία disqus. Εάν δεν έχετε ήδη επιβεβαιώσει το email σας, μπορείτε να ζητήσετε να σας αποσταλεί νέο email επιβεβαίωσης από το disqus.com
Όποιος χρήστης της πλατφόρμας του disqus.com ενδιαφέρεται να αναλάβει διαχείριση (moderating) των σχολίων στα άρθρα του pronews.gr σε εθελοντική βάση, μπορεί να στείλει τα στοιχεία του και στοιχεία επικοινωνίας στο [email protected] και θα εξεταστεί άμεσα η υποψηφιότητά του.