Η βιομετρική τεχνολογία είναι πολύτιμη, αλλά ταυτόχρονα είναι και επικίνδυνη. Το παράδειγμα της Κίνας και πώς μπορεί να βρεθεί η λεπτή ισορροπία ως προς τα βιομετρικά δεδομένα.
Σε ποιο βαθμό σας ανήκει το πρόσωπό σας; Ή τα δαχτυλικά αποτυπώματα; Ή το DNA; Μέχρι ποιον βαθμό θα εμπιστευόσασταν άλλους να χρησιμοποιούν τόσο ευαίσθητα βιομετρικά δεδομένα;
Θέτοντας αυτά τα ερωτήματα, σημαίνει ότι τονίζουμε την αβεβαιότητα και την πολυπλοκότητα γύρω από τη χρήση τους.
Η σύντομη, αν και πρόχειρη, απάντηση είναι πως όλα εξαρτώνται από το πλαίσιο, σημείωνει σε άρθρο του στους Financial Times ο John Thornhill.
Πολύτιμα αλλά και επικίνδυνα τα βιομετρικά στοιχεία
Πολλοί άνθρωποι, εμού συμπεριλαμβανομένου, όπως υποστηρίζει, θα επέτρεπαν ευχαρίστως σε έμπιστους ιατρικούς ερευνητές που καταπολεμούν γενετικές ασθένειες να μελετήσουν το DNA τους.
Λίγοι φέρνουν αντίρρηση στο να χρησιμοποιεί η αστυνομία επιλεκτικά βιομετρικά δεδομένα για τη σύλληψη εγκληματιών.
Είναι αξιοσημείωτο ότι το 2012 Γερμανοί ερευνητές έλυσαν 96 υποθέσεις διαρρήξεων, ταυτοποιώντας τα αποτυπώματα των αυτιών ενός άνδρα που είχε πατήσει το αυτί του στις πόρτες, για να ελέγξει αν βρισκόταν κανείς στο σπίτι.
Η επαλήθευση ταυτότητας στη συσκευή, με χρήση τεχνολογίας δακτυλικών αποτυπωμάτων ή αναγνώρισης προσώπου για ένα smartphone, μπορεί να βελτιώσει την ασφάλεια και την ευκολία.
Αλλά το εύρος και η συχνότητα της χρήσης βιομετρικών στοιχείων εκρήγνυται, την ώρα που η γραμμή μεταξύ τού τι είναι αποδεκτό και τι απαράδεκτο γίνεται όλο και πιο ασαφής. Ήδη μπορεί κανείς να επισημάνει ριψοκίνδυνες ή κακόβουλες χρήσεις βιομετρικών στοιχείων.
Κράτος επιτήρησης και «ψηφιακός αυταρχισμός»
Οι εταιρείες που χρησιμοποιούν την τεχνολογία και οι ρυθμιστικές αρχές που τις επιβλέπουν έχουν επείγουσα ευθύνη να χαράξουν μια σαφέστερη διαχωριστική γραμμή. Διαφορετικά, θα αυξηθούν οι ανησυχίες ότι υπνοβατούμε προς ένα κράτος επιτήρησης.
Η πιο κραυγαλέα ανησυχία σχετικά με τη χρήση τέτοιων δεδομένων έχει να κάνει με το πώς ενισχύει τις δυνατότητες επιτήρησης με τρόπους χωρίς λογοδοσία, κυρίως στην Κίνα που παρακολουθεί αυστηρά τον πληθυσμό της και εξάγει «ψηφιακό αυταρχισμό».
Μια έκθεση του 2019 από το Carnegie Endowment for International Peace διαπίστωσε ότι τεχνολογία επιτήρησης με δυνατότητα AI χρησιμοποιήθηκε σε τουλάχιστον 75 από τις 176 χώρες που μελέτησε. Η Κίνα ήταν ο μεγαλύτερος προμηθευτής τέτοιας τεχνολογίας, με πωλήσεις σε 63 χώρες, ενώ οι αμερικανικές εταιρείες πούλησαν σε 32 χώρες.
Αλλά η χρήση βιομετρικών δεδομένων υιοθετείται επίσης με ενθουσιασμό από τον ιδιωτικό τομέα σε χώρους εργασίας, καταστήματα και σχολεία σε όλο τον κόσμο. Χρησιμοποιείται για την επαλήθευση της ταυτότητας των οδηγών ταξί, την πρόσληψη υπαλλήλων, την παρακολούθηση εργαζομένων στο εργοστάσιο, την επισήμανση των κλεφτών και για να κινηθούν γρηγορότερα οι ουρές στα σχολικά γεύματα.
Χρειάζεται ισχυρό νομικό πλαίσιο
O νομικός Matthew Ryder, σε μια ανεξάρτητη έκθεση που δημοσιεύθηκε αυτή την εβδομάδα, διατύπωσε μια ισχυρή υπόθεση ως προς το γιατί οι πολιτικοί πρέπει να δράσουν τώρα για να δημιουργήσουν ένα ισχυρότερο νομικό πλαίσιο για τις βιομετρικές τεχνολογίες.
Μέχρι να τεθεί σε ισχύ, ο Ryder έχει ζητήσει μορατόριουμ στη χρήση της τεχνολογίας live αναγνώρισης προσώπου. Παρόμοιες εκκλήσεις έχουν γίνει από Βρετανούς βουλευτές και Αμερικανούς νομοθέτες χωρίς να οδηγήσουν σε ιδιαίτερη ανταπόκριση από τις εθνικές κυβερνήσεις.
Τρία επιχειρήματα προβάλλονται ως προς το γιατί οι πολιτικοί δεν έχουν ακόμη δράσει: είναι πολύ νωρίς, είναι πολύ αργά και το κοινό αδιαφορεί. Και τα τρία επιχειρήματα ακούγονται «ρηχά».
Πρώτον, υπάρχει περίπτωση η πρόωρη και απαγορευτική νομοθεσία να σκοτώσει την καινοτομία. Ωστόσο, οι μεγάλες αμερικανικές εταιρείες ανησυχούν όλο και περισσότερο για την αδιάκριτη εξάπλωση της βιομετρικής τεχνολογίας και φαίνεται να φοβούνται ότι θα μηνυθούν εάν τα πράγματα πάνε πολύ στραβά.
Αρκετοί – συμπεριλαμβανομένων των Microsoft, Facebook και IBM – έχουν σταματήσει να αναπτύσσουν ή να πωλούν ορισμένες υπηρεσίες αναγνώρισης προσώπου και ζητούν αυστηρότερη νομοθεσία. «Η ρύθμιση των επιχειρήσεων βοηθά στην καινοτομία», λέει ο Ryder. «Μπορείς να καινοτομείς με αυτοπεποίθηση».
Το επόμενο επιχείρημα είναι ότι τα βιομετρικά στοιχεία αναπτύσσονται τόσο γρήγορα, που οι ρυθμιστικές αρχές δεν μπορούν ποτέ να καλύψουν τη διαφορά με τις πρωτοπόρες χρήσεις. Είναι αναπόφευκτο οι τεχνολόγοι να ξεπεράσουν τις ρυθμιστικές αρχές.
Όμως, όπως υποστηρίζει η Stephanie Hare, η συγγραφέας του «Technology is Not Neutral», οι κοινωνίες επιτρέπεται να αλλάξουν γνώμη σχετικά με το εάν οι τεχνολογίες είναι επωφελείς. Πάρτε τον αμίαντο, ο οποίος χρησιμοποιήθηκε ευρέως για την πρόληψη πυρκαγιών πριν γίνουν γνωστοί οι κίνδυνοι για την υγεία. «Τον χρησιμοποιήσαμε με χαρά πριν τον ξηλώσουμε όλο. Θα πρέπει να είμαστε σε θέση να καινοτομούμε και φυσικά να διορθώνουμε», λέει.
Το τελευταίο επιχείρημα είναι ότι το κοινό δεν ενδιαφέρεται για τα βιομετρικά δεδομένα και οι πολιτικοί έχουν υψηλότερες προτεραιότητες. Αυτό μπορεί να ισχύει μέχρι να μην ισχύει πλέον.
Όταν τα συμβούλια πολιτών μελέτησαν και συζητούσαν τη χρήση βιομετρικών δεδομένων, εξέφρασαν ανησυχία για την αξιοπιστία, την αναλογικότητα και την προκατάληψη και ανησυχία για τη χρήση τους ως «ρατσιστική» τεχνολογία που εισάγει διακρίσεις. Έρευνες έχουν δείξει ότι η αναγνώριση προσώπου λειτουργεί λιγότερο με ακρίβεια σε μαύρες γυναίκες ηλικίας 18 έως 30 ετών.
«Όταν βλέπεις την τεχνολογία να χρησιμοποιείται με κακόβουλο τρόπο, τότε δυσκολεύει τους ανθρώπους να την αποδεχτούν με πιο χρήσιμους τρόπους», είπε ένας από τους συμμετέχοντες σε ένα συμβούλιο πολιτών.
Όλοι όσοι εμπλέκονται στην προώθηση των θετικών χρήσεων των βιομετρικών δεδομένων θα πρέπει να συμβάλουν στη δημιουργία ενός αξιόπιστου νομικού καθεστώτος. Το μόνο που χρειάζεται τώρα είναι ένα τεράστιο σκάνδαλο για να υπάρξει μια τρομακτική λαϊκή αντίδραση.
Tο pronews.gr δημοσιεύει κάθε σχόλιο το οποίο είναι σχετικό με το θέμα στο οποίο αναφέρεται το άρθρο. Ο καθένας έχει το δικαίωμα να εκφράζει ελεύθερα τις απόψεις του. Ωστόσο, αυτό δεν σημαίνει ότι υιοθετούμε τις απόψεις αυτές και διατηρούμε το δικαίωμα να μην δημοσιεύουμε συκοφαντικά ή υβριστικά σχόλια όπου τα εντοπίζουμε. Σε κάθε περίπτωση ο καθένας φέρει την ευθύνη των όσων γράφει και το pronews.gr ουδεμία νομική ή άλλα ευθύνη φέρει.
Δικαίωμα συμμετοχής στη συζήτηση έχουν μόνο όσοι έχουν επιβεβαιώσει το email τους στην υπηρεσία disqus. Εάν δεν έχετε ήδη επιβεβαιώσει το email σας, μπορείτε να ζητήσετε να σας αποσταλεί νέο email επιβεβαίωσης από το disqus.com
Όποιος χρήστης της πλατφόρμας του disqus.com ενδιαφέρεται να αναλάβει διαχείριση (moderating) των σχολίων στα άρθρα του pronews.gr σε εθελοντική βάση, μπορεί να στείλει τα στοιχεία του και στοιχεία επικοινωνίας στο [email protected] και θα εξεταστεί άμεσα η υποψηφιότητά του.