Η χρήση από τον ισραηλινό στρατό μιας μη ελεγχόμενης και άγνωστης βάσης δεδομένων τεχνητής νοημοσύνης για τον προσδιορισμό στόχων στην εκστρατεία βομβαρδισμών στη Γάζα έχει προκαλέσει ανησυχία στους ειδικούς ανθρωπίνων δικαιωμάτων και τεχνολογίας, οι οποίοι έχουν δηλώσει ότι αυτό θα μπορούσε να συνιστά «εγκλήματα πολέμου».

O ισραηλινός Στρατός φαίνεται πως απομόνωσε και εντόπισε χιλιάδες Παλαιστίνιους ως πιθανούς στόχους αεροπορικών επιδρομών κατά την αρχή του πολέμου, αλλά και μεταγενέστερα, χρησιμοποιώντας ένα σύστημα στόχευσης με τη βοήθεια AI γνωστό ως «Lavender» (Λεβάντα).

«Αυτή η βάση δεδομένων είναι υπεύθυνη για τη σύνταξη καταλόγων θανάτων έως και 37.000 στόχων», δήλωσε την Πέμπτη ο Ρόρι Τσάλαντς του Al Jazeera, ο οποίος κάνει ρεπορτάζ από την κατεχόμενη Ανατολική Ιερουσαλήμ.

Οι ανώνυμοι αξιωματούχοι των ισραηλινών μυστικών υπηρεσιών που μίλησαν στα μέσα ενημέρωσης είπαν ότι το σύστημα Lavender είχε ποσοστό σφάλματος περίπου 10%. «Αλλά αυτό δεν εμπόδισε τους Ισραηλινούς να το χρησιμοποιήσουν για να επιταχύνουν τον εντοπισμό συχνά χαμηλού επιπέδου στελέχη της Χαμάς στη Γάζα και να τους βομβαρδίσουν», είπε ο Ρ.Τσάλαντς.

«Γίνεται σαφές ότι ο ισραηλινός στρατός αναπτύσσει μη δοκιμασμένα συστήματα τεχνητής νοημοσύνης για να βοηθήσει στη λήψη αποφάσεων σχετικά με τη ζωή και τον θάνατο ανθρώπων», είπε στο Al Jazeera ο Μάρκ Όουεν Τζόουνς, επίκουρος καθηγητής Μέσης Ανατολής και Ψηφιακών Ανθρωπιστικών Επιστημών στο Πανεπιστήμιο Hamid Bin Khalifa.

«Ας είμαστε ξεκάθαροι: Αυτή είναι μια γενοκτονία υποβοηθούμενη από την τεχνητή νοημοσύνη και στο εξής, πρέπει να υπάρξει έκκληση για μορατόριουμ στη χρήση της τεχνητής νοημοσύνης στον πόλεμο» δήλωσε.

Οι ισραηλινές δημοσιεύσεις ανέφεραν ότι αυτή η μέθοδος παρήγαγε στόχους και υλικό στόχευσης σε χιλιάδες αεροπορικές επιχειρήσεις στη Γάζα. Ο ακριβής τρόπος που λειτουργεί δεν είναι γνωστός, ωστόσο το σύστημα φαίνεται να είναι σε μεγάλο βαθμό συνδεδεμένο με τα αεροπορικά χτυπήματα «Χτυπήματος Ταράτσας» (Roof Knock Raids), τα οποία κατά κόρον χρησιμοποίησε η IAF.

Οι συγκεκριμένες επιδρομές αποτελούσαν επιχειρήσεις 2 σταδίων: αρχικά, τα αεροσκάφη στιγμάτιζαν με φώτιζαν με χρήση φωτοβολίδων τα κτήρια που θα χτυπούσαν και κατόπιν, η ακόλουθη πτήση πραγματοποιούσε το πλήγμα στο σημείο.

Την Πέμπτη, το υπουργείο Υγείας της Γάζας δήλωσε ότι τουλάχιστον 33.037 Παλαιστίνιοι έχουν σκοτωθεί και 75.668 τραυματίστηκαν σε ισραηλινές επιθέσεις από τις 7 Οκτωβρίου.

Η χρήση AI «παραβιάζει» το ανθρωπιστικό δίκαιο

«Οι άνθρωποι που αλληλεπιδρούσαν με τη βάση δεδομένων AI ήταν συχνά απλώς μια σφραγίδα. Θα εξέταζαν εξονυχιστικά αυτήν τη λίστα δολοφονιών για ίσως 20 δευτερόλεπτα πριν αποφασίσουν αν θα δώσουν το πράσινο φως για μια αεροπορική επιδρομή ή όχι», ανέφερε ο Τσάλαντς.

Ο ισραηλινός στρατός είπε ότι οι αναλυτές του πρέπει να πραγματοποιήσουν «ανεξάρτητες έρευνες» για να επαληθεύσουν ότι οι προσδιορισμένοι στόχοι πληρούν τους σχετικούς ορισμούς σύμφωνα με το διεθνές δίκαιο και τους πρόσθετους περιορισμούς που ορίζονται από τις δυνάμεις του.

Διέψευσαν μάλιστα την ιδέα ότι η τεχνολογία είναι ένα «σύστημα», αλλά αντ’ αυτού «απλώς μια βάση δεδομένων, σκοπός της οποίας είναι η διασταύρωση πηγών πληροφοριών, προκειμένου να παραχθούν ενημερωμένα στρώματα πληροφοριών για τους στρατιωτικούς πράκτορες τρομοκρατικών οργανώσεων».

Ο καθηγητής Τόμπι Γουόλς, ειδικός τεχνητής νοημοσύνης στο Πανεπιστήμιο της Νέας Νότιας Ουαλίας στο Σίδνεϊ, είπε ότι οι νομικοί μελετητές πιθανότατα θα υποστηρίξουν ότι η χρήση στόχευσης τεχνητής νοημοσύνης παραβιάζει το διεθνές ανθρωπιστικό δίκαιο.

Μια φωτογραφία χίλιες λέξεις: Ακολούθησε το pronews.gr στο Instagram για να «δεις» τον πραγματικό κόσμο!

«Από τεχνική άποψη, αυτές οι τελευταίες ειδήσεις δείχνουν πόσο δύσκολο είναι να κρατάς έναν άνθρωπο σε επαφή, παρέχοντας ουσιαστική επίβλεψη σε συστήματα τεχνητής νοημοσύνης που κλιμακώνουν τον πόλεμο τρομερά και τραγικά», είπε στο Al Jazeera.