Τεχνητή Νοημοσύνη και Ηθικά Ζητήματα - ELSA Day - Legal Research by Advocacy Team

Page 1

+++

Τεχνητή Νοημοσύνη & Ηθικά Ζητήματα ELSA Day


Τεχνητή Νοημοσύνη και Ηθικά Ζητήματα Περίληψη Η νομική έρευνα πραγματεύεται την εισαγωγή της τεχνητής νοημοσύνης (ΤΝ) στην ανθρώπινη καθημερινότητα, με την ανάλυση να περιστρέφεται γύρω από 3 επιμέρους άξονες.

Εν συνεχεία, η έρευνα εστιάζει στο φαινόμενο της οικονομικής κατασκοπείας, που επιτρέπει σήμερα η ΤΝ, αναδεικνύοντας σαφώς τα επιμέρους ζητήματα που αναφύονται. Ταυτόχρονα, γίνεται αναφορά στον κρίσιμο ρόλο που μπορεί να διαδραματίσει η ΤΝ στην πρόληψη των κυβερνοεπιθέσεων, και άρα στον χώρο της εθνικής άμυνας, ενώ τέλος λόγος γίνεται και για τις πιθανές επιπτώσεις εισαγωγής της τεχνολογίας της ΤΝ, στον στρατιωτικό χώρο.

Αρχικά, εξετάζεται η τεχνολογική επέμβαση υπό το πρίσμα της ανθρώπινης συμπεριφοράς. Η προβληματική εδώ εντοπίζεται σε καθημερινές πτυχές της τεχνολογίας, όπως η τηλεργασία, η τηλεκπαίδευση και τα video-games, όπου η σχετική διάδραση με τον υπολογιστή, συχνά καθίσταται προβληματική. Περνώντας έπειτα στο χώρο του ηλεκτρονικού εμπορίου, παρά την τόνωση της επιχειρηματικότητας από την εισαγωγή της ΤΝ, επισημαίνονται τα προβλήματα που δημιουργούνται με την δημιουργία πλασματικών καταναλωτικών αναγκών. Τέλος, αναφορικά με τον πολιτικό χώρο, η έρευνα εστιάζει στην εκμετάλλευση των προσωπικών δεδομένων των χρηστών της ΤΝ, για επηρεασμό των εκλογικών τους επιλογών, τονίζοντας ωστόσο και την παράλληλη θετική συνεισφορά της στην κρίση των πολιτών, για την επιλογή του ταιριαστότερου υποψηφίου.

Τρίτη και τελευταία σκοπιά από την οποία εξετάζεται το ζήτημα, είναι αυτή των προκαταλήψεων στο χώρο της ΤΝ. Κατ’ αρχάς, τονίζεται πως πρόκειται για ένα εγγενές πρόβλημα της ΤΝ, καθότι τα συστήματά της λειτουργούν και αποφαίνονται με βάση τα εισαγόμενα ανθρώπινα δεδομένα (που συχνά είναι ήδη μεροληπτικά), ενώ άλλοτε κατά τη λειτουργία τους, απλώς, ‘’αφομοιώνουν’’ και οδηγούνται στις προκαταλήψεις αυτές, αναπαράγοντάς τες εν συνεχεία. Ζήτημα που καθίσταται ανησυχητικό για θεμελιώδεις ανθρώπινες αξίες. Κατόπιν, η προβληματική φωτίζεται μέσα από συγκεκριμένα καταγεγραμμένα παραδείγματα εφαρμογών της ΤΝ, σε τομείς όπως η αστυνόμευση, η αξιολόγηση αιτήσεων φοίτησης και πρόσληψης, η διενέργεια έργων και η περίθαλψη, όπου τα συστήματα ΤΝ οδηγήθηκαν ακριβώς σε ανεπιεική αποτελέσματα και διακριτική μεταχείριση σε βάρος συγκεκριμένων, αδύναμων ή μειονοτικών ομάδων. Τέλος, γίνεται αναφορά στις θεσμικές προτάσεις για αντιμετώπιση του φαινομένου, στο πλαίσιο των οποίων επιβάλλεται η ενιαία – ευρωπαϊκή προσέγγιση, ο εποπτικός κρατικός έλεγχος συμμόρφωσης των συστημάτων με τα ανθρώπινα δικαιώματα, αλλά και ένα πλαίσιο που θα κατατείνει στην εν γένει εξάλειψη των διακρίσεων.

Εν συνεχεία, το ζήτημα εξετάζεται αναφορικά με το πεδίο της ασφάλειας. Αρχικά, τονίζεται πως η ανάλυση των τραπεζικών δεδομένων, μπορεί μελλοντικά να συνεισφέρει σε προβλήματα όπως η πρόληψη οικονομικών κρίσεων και το ξέπλυμα χρήματος. Ταυτόχρονα, υποστηρίζεται ότι η δράση της ΤΝ μπορεί να φέρει επανάσταση στο χώρο των συστημάτων φύλαξης – παρακολούθησης, καθώς ακόμη και σ’ αυτόν του δικαστικού μηχανισμού, μέσα από την εξελιγμένη ανάλυση διαφόρων αποδεικτικών μέσων.

-1-


Ι. Τεχνητή Νοημοσύνη και Ανθρώπινη Συμπεριφορά Έξυπνες μηχανές διεξάγουν πια ηλεκτρονικό εμπόριο, καθώς ενημερώνονται συνεχώς συλλέγοντας στοιχεία για τις ανάγκες της αγοράς[4], δημιουργώντας έτσι ανασφάλεια σε πολλούς χρήστες για τη διάρρευση των προσωπικών τους δεδομένων. Είναι γνωστό άλλωστε, πως οι χρήστες των social media, μέσω διαφόρων μηχανισμών (αλγόριθμοι,cookies) εκτίθενται σε περιεχόμενο αντίστοιχο των προτιμήσεων τους. Υπό αυτό το πρίσμα, η επιχειρηματικότητα ευνοείται, καθώς επιχειρήσεις απευθύνονται, μέσω εξατομικευμένων διαφημίσεων, πιο άμεσα στο ενδιαφερόμενο κοινό[5] , ενώ παράλληλα προβλέπεται πως χρήση τεχνολογιών, όπως η φωνητική εντολή και η χρήση δακτυλικού αποτυπώματος, θα διευκολύνει σημαντικά την αγοραστική διαδικασία[6]. Ωστόσο, στο πλαίσιο της αυξανόμενης χρήσης της τεχνητής νοημοσύνης από επιχειρήσεις, πολλοί είναι αυτοί που θεωρούν πως δημιουργούνται επίπλαστες ανάγκες στο καταναλωτικό κοινό, καθώς η συνεχής και δίχως διακοπή έκθεση του σε αγαθά της προτιμήσεως του, τον ωθεί πιο εύκολα σε ασυνείδητες αγορές.

Η επέμβαση της τεχνολογίας σε κάθε τομέα της ανθρώπινης δραστηριότητας είναι αναμφισβήτητη, αυτοματοποιημένες ηλεκτρονικές συσκευές, σύγχρονα συστήματα τεχνητής νοημοσύνης, επιδρούν στην ανθρώπινη συμπεριφορά ενώ η επιβολή του ανθρώπου σ’αυτά ως δημιουργός τους, αποτελεί μεγάλη πρόκληση. Συχνά, γίνεται αντικείμενο έρευνας ο τρόπος που αλληλεπιδρούμε χρησιμοποιώντας ηλεκτρονικούς υπολογιστές, σε κοινωνικό και πολιτικό επίπεδο, στις καθημερινές μας συναλλαγές, στην εκπαίδευση. Από τη μια πλευρά, συμβάλλουν στη αποτελεσματική διεξαγωγή υποθέσεων μειώνοντας έτσι το φόρτο εργασίας και ξεκουράζοντας τους χρήστες. Από την άλλη πλευρά όμως το άτομο χάνει την ελευθερία του, νιώθοντας εξαρτημένο σε μεγάλο βαθμό από την τεχνολογία, η οποία τον αντικαθιστά, ελέγχει τις επιλογές του και χωρίς πια να μπορεί να την αποφύγει, αποτελεί αναπόσπαστο μέρος της ζωής του.

Η τεχνολογία, μια επιστήμη που στηρίζεται στην μαθηματική λογική αποτελεί πια κοινωνικό φαινόμενο με προεκτάσεις στην ψυχολογία και στις νευροεπιστήμες[1]. Η τηλεργασία, η τηλεκπαίδευση και η ψυχαγωγία μέσω υπολογιστή (π.χ.παιχνίδια στο διαδίκτυο) με προσομοίωση του περιβάλλοντος είναι γεγονός και απαιτεί εξειδικευμένο προσωπικό για την βέλτιστη απόδοση. Τότε, οι χρήστες συχνά επικοινωνούν αποκλειστικά με μηχανήματα ή καθιστώντας τους υπολογιστές ως το κύριο μέσο επικοινωνίας. Όμως, η διάδραση του ατόμου με ένα μηχάνημα είναι αυστηρά οριοθετημένη. Ανάλογα με τις ολοένα εξελισσόμενες δυνατότητές των υπολογιστών, που μιμούνται την ανθρώπινη γλώσσα του σώματος (νεύματα, εκφράσεις) και η επικοινωνιακή συμπεριφορά του ανθρώπου περιορίζεται σε συγκεκριμένες μόνο, γλωσσικές ή μη, εκδηλώσεις[2]. Κατ’ αυτόν τον τρόπο, πολλές φορές διαπιστώνονται προβλήματα κατανόησης από μη έμπειρους χρήστες ή όταν εκλείπει εντελώς η κατά πρόσωπο συνομιλία. Επιπλέον, επιστημονικές έρευνες συνδέουν την κοινωνική αποξένωση, την επιθετικότητα και τη χαμηλή αυτοεκτίμηση στους εφήβους με την πολύωρη ενασχόληση με ηλεκτρονικά παιχνίδια (video games)[3].

Για αρκετούς, η χρήση προσωπικών δεδομένων χρηστών του διαδικτύου από διάφορες οντότητες, θα μπορούσε να αποτελέσει κίνδυνο για την δημοκρατία, επηρεάζοντας σημαντικά την εκλογική συμπεριφορά του ατόμου. Κατά την διάρκεια των Αμερικανικών Εκλογών του 2016, η εταιρεία ανάλυσης δεδομένων Cambridge Analytica χρησιμοποίησε το ψηφιακό αποτύπωμα ενός μεγάλου μέρους του εκλογικού σώματος των ΗΠΑ, με στόχο να το επηρεάσει μέσω ειδήσεων και διαφημίσεων για λογαριασμό πολιτικών που προσέλαβαν την εταιρεία. Συγκεκριμένα, διαφορετικοί χρήστες των social media, ψηφοφόροι στις Αμερικανικές εκλογές, εκτέθηκαν σε διαφορετικά μηνύματα, βασιζόμενα στο ψηφιακό τους αποτύπωμα. Η συγκεκριμένη περίπτωση έθεσε το ζήτημα της χρήσης προσωπικών δεδομένων για την προβολή εξατομικευμένου περιεχομένου και πως αυτή μπορεί να καθορίσει μια τόσο σημαντική επιλογή όπως αυτή της επιλογής υποψηφίου.

-2-


Αξίζει να σημειωθεί, ωστόσο, ότι ένα μέρος του εκλογικού σώματος, θα εμπιστευόταν κάποιον αλγόριθμο για να καταλήξει στον κατάλληλο υποψήφιο σε μια εκλογική αναμέτρηση. Το 2019, ένας μεγάλος αριθμός Ευρωπαίων ψηφοφόρων κατέφυγε στον μηχανισμό που δημιούργησε το think tank Vote Watch Europe, για να εντοπίσει τον κατάλληλο υποψήφιο στις Εκλογές του Ευρωπαϊκού Κοινοβουλίου. Συγκεκριμένα, αρκούσαν 25 ερωτήσεις για να “ταιριάξει” ο εκάστοτε ψηφοφόρος με τον αντίστοιχο υποψήφιο. Αντίστοιχες πλατφόρμες, έχουν χρησιμοποιηθεί και σε άλλες εκλογικές αναμετρήσεις ανά την υφήλιο [7]. Ωστόσο, προεκλογικά το πολιτικό μάρκετινγκ καθορίζει το εκλογικό αποτέλεσμα ως ενα βαθμό[8], σε ορισμένες χώρες με αρκετούς θεσμούς ημιαντιπροσωπευτικού συστήματος, διεξάγονται δημοψηφίσματα μέσω ίντερνετ[9] ώστε αποφάσεις τοπικού χαρακτήρα να λαμβάνονται από το λαό ενισχύοντας την άμεση δημοκρατία.

[1] Κοτσώνη Ασπασία, Μπαϊρακτάρη Δήμητρα. (2004). Η επίδραση της Πληροφορικής στην ψυχολογία του Ατόμου και τις Διαπροσωπικές σχέσεις, Σχολή Διοίκησης και Οικονομίας- Τμήμα Εφαρμογών Πληροφορικής, Μεσολόγγι

Είναι δεδομένο, πως μελλοντικά η τεχνητή νοημοσύνη θα κατέχει το μεγαλύτερο μέρος της καθημερινότητάς μας. “Έξυπνοι βοηθοί” προβλέπεται πως θα διευκολύνουν την ζωή μας, ενώ απλές επιλογές ενδεχομένως να είναι αυστηρά αποτέλεσμα της μαθηματικής λογικής των αλγορίθμων. Άγνωστο, ωστόσο, παραμένει το πως ο άνθρωπος θα ανταποκριθεί σε αυτήν την πραγματικότητα, καθώς η μεγαλύτερη πρόκληση είναι η εξισορρόπηση του συναισθηματισμού του με την λογική των μηχανών.

[6] Kas Szatylowicz (2019), Five ways Retail AI will influence Consumer Behavior, Crobox (https://blog.crobox.com/article/ai-consumerbehavior)

[2] Grzyb B., Vigliocco G.(2020).Beyond robotic speech: mutual benefits to cognitive psychology and artificial intelligence from the study of multimodal communication,https://psyarxiv.com/h5dxy/ [3] Colwell J.,Payne J.,(2000).Negative correlates of computer game play in adolescents,The British Journal of Psychology, 91, p.295310 http://anikannan.tripod.com/Eng/Tech/Technology2.htm [4] Soni Dineshkumar V.(2020).Emerging Roles of Artificial Intelligence in Ecommerce, vol4,iss.5, Campbellsville Un. [5] Ron Schmezler (2020), AI makes a splash in advertising, Forbes Magazine(https://www.forbes.com/sites/cognitiveworld/2020/06/18/ai -makes-a-splash-in-advertising/?sh=2583418f7682)

[7] Frank Swain (2019), How Robots are coming for your vote ,BBC,(https://www.bbc.com/future/article/20191108-how-robots-arecoming-for-your-vote) [8] Tkachenko O.(2020).Marketing Communications in Election Campaings,International Journal of Advanced Reseach in Engineering and Technology,11(6),Ukraine,pp.525-533

-Ανδριανή Ρούβαλη, Χρυσούλα Αθανασάτου

[9] Χριστόπουλος Π. (2003). Εκλογές μέσω Ίντερνετ σε ελβετικό χωριό, Καθημερινή

-3-


ΙΙ. Τεχνητή Νοημοσύνη και Ασφάλεια Έγινε λόγος για την πρόληψη ή την διαπίστωση παραβατικών συμπεριφορών με τη συνδρομή της τεχνολογίας της τεχνητής νοημοσύνης. Αναπόδραστα, η πραγματικότητα στο επέκεινα της διαπίστωσης της εγκληματικής συμπεριφοράς οδηγεί στην ενεργοποίηση του δικαστικού μηχανισμού, στον οποία σταδιακά εισάγεται η χρήση της τεχνητής νοημοσύνης. Συγκεκριμένα, οι δυνατότητες της τεχνητής νοημοσύνης αξιοποιούνται ήδη για την επεξεργασία ή ανάλυση αποδεικτικών αντικειμένων ή μέσων (εικόνων ή ήχων) σημαντικών για την δικανική κρίση και για την κατάρτιση προφίλ δραστών ή θυμάτων [3]. Περαιτέρω, ενδεικτικά κρίνεται αξιόλογη η κρίση του Ανωτάτου Δικαστηρίου του Ουισκόνσιν ως προς το ότι χρήση του λογισμικού COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), επιβοηθητικού λογισμικού/προγράμματος τεχνητής νοημοσύνης ως προς την επιμέτρηση της ποινής, δεν προσβάλλει τα δικαιώματα του [4]. Οφείλει να τονισθεί ότι ρηξικέλευθες εισαγωγές τέτοιων τεχνολογιών –προς το παρόν– δεν λαμβάνουν χώρα στα δικαστικά συστήματα των κρατών του ηπειρωτικού δικαίου.

Το εύρος εφαρμογής των δυνατοτήτων που επιφυλάσσει η ραγδαία ανάπτυξη της τεχνητής νοημοσύνης είναι δύσληπτο. Εν προκειμένω, έμφαση θα δοθεί σε τρεις θεμελιακούς τομείς του κοινωνικού βίου: το τραπεζικό σύστημα, τα συστήματα ασφαλείας εν γένει και τέλος το δικαστικό σύστημα.

Αναφορικά με το τραπεζικό σύστημα η αξιοποίηση των δυνατοτήτων της τεχνητής νοημοσύνης ενδέχεται να αποβεί ριζοσπαστική για τον τρόπο λειτουργίας της αγοράς και τους μηχανισμούς αντιμετώπισης κρίσεων. Μοντέλα τεχνητής νοημοσύνης αναμένεται να βρουν εφαρμογή σε εποπτικές της αγοράς διαδικασίες και μέσω της ανάλυσης πολυεπίπεδων οικονομικών παραμέτρων (π.χ. ρυθμός οικονομικών εισροών και εκροών κ.α.) να αναπτυχθούν συστήματα προειδοποίησης για κρίσεις στον χρηματοπιστωτικό τομέα [1]. Ακόμα, η ανάλυση των τραπεζικών δεδομένων από ανεπτυγμένα συστήματα τεχνητής νοημοσύνης θα συμβάλει στη διακρίβωση και ως εκ τούτου στην αντιμετώπιση παραβατικών συμπεριφορών μέσω του τραπεζικού συστήματος, όπως ξέπλυμα χρήματος [1].

Η τεχνητή νοημοσύνη αποτελεί μία νέα και εξελισσόμενη τεχνολογία, η οποία λαμβάνει εφαρμογής σε πολλούς τομείς. Στον κυβερνοχώρο συχνό είναι το φαινόμενο της οικονομικής κατασκοπείας μεταξύ κρατών. Οι κυβερνήσεις επιχειρούν μέσω υπηρεσιών πληροφοριών την απόσπαση οικονομικών πληροφοριών σε διεθνές επίπεδο, διαμορφώνοντας την εσωτερική και εξωτερική πολιτική τους. Ακόμη, πολυεθνικές εταιρείες κυβερνητικά κατευθυνόμενες υποκλέπτουν δεδομένα ξένων αντίστοιχων εταιριών, με σκοπό να κυριαρχήσουν στη διεθνή οικονομία. Όλα αυτά επιτυγχάνονται με τον λεγόμενο «ψηφιακό μετασχηματισμό» των εταιριών, την χρήση εργαλείων συλλογής και ανάλυσης πληροφοριών και την πρόσληψη hackers, που τα διαχειρίζονται.

Συστήματα ασφαλείας, όπως κλειστά κυκλώματα παρακολούθησης, χρησιμοποιούνται τόσο για τη φύλαξη τραπεζών ή εμπορικών καταστημάτων, όσο και ιδιωτικών χώρων. Τα εργαλεία της τεχνητής νοημοσύνης αξιοποιούνται στον τομέα αυτόν με τρόπο επικουρικό. Έτσι, η αναβάθμιση του εξοπλισμού παρακολούθησης με την εισαγωγή της τεχνολογίας τεχνητής νοημοσύνης και την ταυτόχρονη σύγκλιση αυτής με την διαχείριση του ανθρώπινου δυναμικού θα καταστήσει ιδιαίτερα πιο αποτελεσματική τη φύλαξη και προστασία του εκάστοτε χώρου. Ήδη τεχνικές αυτόματης αναγνώρισης και ταυτοποίησης προσώπων ή οχημάτων αξιοποιούνται από τη βιομηχανία συστημάτων ασφαλείας[2].

-4-


Φυσικά, σε αυτό το σημείο η ΤΝ αποδίδει ένα οικονομικό όφελος στις κρατικές οικονομίες, συνεισφέροντας στην χάραξη πιο ισχυρής οικονομικής πολιτικής. Ωστόσο, η διαφύλαξη της οικονομικής ασφάλειας των κρατών διαταράσσεται με την υποκλοπή οικονομικών κρατικών δεδομένων, ενώ παράλληλα αμφισβητείται το εμπορικό απόρρητο, με συνέπεια να μειώνονται οι επενδύσεις στην εσωτερική αγορά.

Τι θα γίνει αν η μηχανή «μπλοκάρει» και πυροβολεί ανεξέλεγκτα; Ακόμη, πώς θα μπορεί να διακρίνει ανάμεσα σε μαχητές και αμάχους; Επιπλέον, ένα μηχάνημα δεν έχει κοινή λογική και συναισθήματα, οπότε σε καμία περίπτωση δεν πρόκειται να υπάρξει έλεος προς την πλευρά των απειλούμενων.

Η νομοθεσία στο πλαίσιο της ΤΝ είναι ακόμη σε πρώιμο στάδιο. Ωστόσο, η Ε.Ε. έχει εισάγει μέσω της Επιτροπής έναν «Κώδικα Ηθικής», που βέβαια δεν είναι νομικά δεσμευτικός. Περιορίζεται, όμως, μόνο στην Ευρώπη, με αποτέλεσμα ο φόβος και η ανασφάλεια να διατηρούνται.

Εκτός από τα παραπάνω, η ΤΝ συμβάλλει και στον εντοπισμό, στην αποτροπή και στην πρόβλεψη κυβερνοεπιθέσεων. Μέσω του «hacking» και του «phishing» είναι δυνατή η αναγνώριση και πρόληψη των πιθανών προσβολών με μηχανές που ανιχνεύουν συμπεριφορές πιθανών στόχων, λαμβάνοντας υπόψη επαναλαμβανόμενα μοτίβα επιθέσεων. Παράδειγμα το σκουλήκι «Stuxnet», που εντοπίζει υπολογιστικά συστήματα παραγωγής πυρηνικών όπλων και καταστρέφει τους φυγοκεντρητές τους .Εδώ, η ΤΝ λειτουργεί ως ένας τρόπος υπεράσπισης των κρατών. Εντούτοις, αποτελεί και σύστημα αποδοτικότερης προετοιμασίας και κάλυψης των επιτιθέμενων, παρέχοντας τη δυνατότητα να εισβάλουν στο λογισμικό των αντιπάλων και να αναστείλουν την άμυνά τους.

-Προκόπης Παναγόπουλος, Χρυσούλα Αναγνωστοπούλου

[1] Στουρνάρας Ιωάννης, 2020, Η Τεχνητή Νοημοσύνη και ο ρόλος της στην Οικονομία, τη Διοίκηση-Οργάνωση Επιχειρήσεων και το Χρηματοπιστωτικό Τομέα [ιστοσελίδα], διαθέσιμο από: [2] https://www.bankofgreece.gr/enimerosi/grafeio-typoy/anazhthshenhmerwsewn/enhmerwseis?announcement=6baf1721-c2a8-42c2b4b1-6bb0368c3b52

Μεγάλο ηθικό δίλημμα αναδύεται στη χρήση ΤΝ στον στρατό. Χαρακτηριστικό είναι το αίτημα των εργαζομένων της Google-στο project Maven με το Πεντάγωνο- να απέχει η εταιρία από το πολεμικό σύστημα των ΗΠΑ. Αυτόματα αεροσκάφη, πύραυλοι, τανκς και ρομπότ στρατιώτες είναι μερικά από τα επιτεύγματα της τεχνητής νοημοσύνης. Από τη μία τα αυτόματα οπλικά συστήματα εξασφαλίζουν την αντικατάσταση του ανθρώπου στο πεδίο της μάχης και την αποτελεσματικότερη διεξαγωγή του πολέμου. Τα μηχανήματα δεν τραυματίζονται, η αντικατάσταση τους σε περίπτωση βλάβης είναι δυνατή ανά πάσα στιγμή και η ισχύς τους παραμένει σταθερή (δεν κουράζονται). Από την άλλη, η αυτοματοποίηση τους και η αναγνώριση πολλαπλών στόχων μπορεί να οδηγήσει σε αυξημένα θύματα.

[3] Κωνσταντινίδης Συμεών, 2018, Η Τεχνητή Νοημοσύνη αλλάζει το τοπίο της Ασφάλειας [ιστοσελίδα], διαθέσιμο από: [4] https://www.securitymanager.gr/i-techniti-noimosyni-allazei-totopio-tis-asfaleias/ [5] Μίτλεττον Χρίστια, 2019, Tεχνητή Νοημοσύνη, Δικαιοσύνη και “Έξυπνη Δικαιοσύνη” [ιστοσελίδα], διαθέσιμο από: [6] https://dikaiosyni.com/katigories/arthra/texniti-noimosini-kai-exypnidikaiosyni/ [7] Harvard Law Review, 2017, State v. Loomis [ιστοσελίδα], διαθέσιμο από: https://harvardlawreview.org/2017/03/state-v-loomis/

-5-


ΙΙΙ. Τεχνητή Νοημοσύνη και Προκαταλήψεις Γνωρίζοντας την Τεχνητή Νοημοσύνη: τα πλεονεκτήματα και το πρόβλημα των προκαταλήψεων. Ωστόσο, η θετική της επενέργεια συνοδεύεται από ενδεχόμενες αρνητικές επιπτώσεις. Η Τεχνητή Νοημοσύνη όχι μόνο δύναται να αναταράξει προκαταλήψεις, αλλά έχει φανεί πως ανοίγει επίσης το δρόμο για νέους τύπους αθέμιτης διάκρισης, τύποι που μάλιστα ξεφεύγουν από τους ισχύοντες νόμους. Το πρόβλημα εντείνεται από την πολυπλοκότητα της Τεχνητής Νοημοσύνης, ώστε είναι δύσκολο να εντοπιστεί η πηγή και η αντιμετώπιση της. Συμπληρωματικά, οι οποιοδήποτε συστάσεις από υπολογιστές που χρησιμοποιούν συστήματα Τεχνητής Νοημοσύνης χαίρουν τέτοιας εκτίμησης, εξαιτίας του φερόμενου αλάθητου ορθολογισμού τους, με αποτέλεσμα οι άνθρωποι να τις ακολουθούν χωρίς να τις θέσουν υπό αμφισβήτηση. Η τάση απόλυτης πίστης στους υπολογιστές ονομάζεται «προκατάληψη αυτοματισμού» (Borgesius, 2018)

Προσεγγίζοντας ολοκληρωμένα το ζήτημα της τεχνητής νοημοσύνης, δεν μπορούμε παρά να την εξετάσουμε και υπό το πρίσμα των ανησυχιών για την έλλειψη αμεροληψίας της. Με τον όρο προκαταλήψεις αναφερόμαστε σε απαράδεκτες ή παράνομες διακρίσεις(Borgesius, 2018).

Εφόσον ο άνθρωπος είναι αυτός που τροφοδοτεί τις εφαρμογές τεχνητής νοημοσύνης με βάσεις δεδομένων, εγκυμονεί ο κίνδυνος οι βάσεις αυτές να αντανακλούν κοινωνικές προκαταλήψεις. Αυτό συμβαίνει γιατί τα συστήματα τεχνητής νοημοσύνης είναι όσο «καλά» όσο τα δεδομένα που εμείς εισάγουμε σε αυτά. Οι εν λόγω κοινωνικές προκαταλήψεις συναντώνται σε πολυποίκιλους τομείς της καθημερινής ζωής, όπως η εργασία, οι δικαστικές αποφάσεις, τα πανεπιστήμια, η αστυνόμευση, η ιατρική περίθαλψη, η πίστωση. Κυρίως, μιλάμε για δεδομένα που συγκεντρώνονται και μετά συνδυάζονται και χρησιμοποιούνται για αυτοματοποιημένη λήψη αποφάσεων, που δεν κατανοούμε μεν, μας επηρεάζουν δε. Όπως ορθά επισήμανε η πανεπιστημιακός Βιρτζίνια Γιούμπανκς: «όταν τέτοια συστήματα δεν έχουν δημιουργηθεί για να καταργήσουν απερίφραστα τις δομικές ανισότητες, η ταχύτητα και η κλίμακά τους τις επιτείνει».

Καθώς υπάρχουν πολλοί τύποι Τεχνητής Νοημοσύνης, τα προβλήματα προκατάληψης διαφοροποιούνται. Ενδεικτικά, ορισμένα συστήματα που λειτουργούν βάσει δεδομένων στα οποία έχουν εκπαιδευτεί., μπορεί κατ’ ουσίαν να έχουν εκπαιδευτεί σε προκατειλημμένα δεδομένα. Από την άλλη, άλλα συστήματα «μαθαίνουν» και «αφομοιώνουν» τις προκαταλήψεις κατά τη λειτουργία τους.

Η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να προωθήσει σημαντικούς στόχους, όπως η αποτελεσματικότητα, η υγεία και η οικονομική ανάπτυξη. H Ευρωπαϊκή Επιτροπή αναγνωρίζει πως πρόκειται για «μια στρατηγική τεχνολογία που προσφέρει πολλά οφέλη για τους πολίτες, τις εταιρείες και την κοινωνία στο σύνολό της, υπό την προϋπόθεση ότι είναι ανθρωποκεντρική, ηθική, βιώσιμη και σέβεται τα θεμελιώδη δικαιώματα και αξίες.» (Ευρωπαϊκή Επιτροπή, 2020)

-6-

Η Ευρωπαϊκή Επιτροπή (ΕΕ) σημειώνει πως η βλάβη που μπορεί να προκύψει από τη χρήση Τεχνητής Νοημοσύνης μπορεί να επηρεάσει τις ίδιες τις θεμελιώδεις αξίες, στις οποίες βασίζεται η ΕΕ και να οδηγήσει σε παραβιάσεις των θεμελιωδών δικαιωμάτων. Ειδικότερα, αναφέρει τα δικαιώματα στην ελευθερία της έκφρασης, της ελευθερίας του συνέρχεσθαι, της ανθρώπινης αξιοπρέπειας, της μη διάκρισης λόγω φύλου, φυλετικής ή εθνοτικής καταγωγής, θρησκείας ή πεποιθήσεων , αναπηρίας, ηλικίας ή σεξουαλικού προσανατολισμού (Ευρωπαική Επιτροπή, 2020).


Εκφάνσεις του προβλήματος σε συγκεκριμένους τομείς. Αντιστοίχως, το 2018, η Amazon έπρεπε να απορρίψει ένα εργαλείο τεχνητής νοημοσύνης για την πρόσληψη προσωπικού, το οποίο προοριζόταν για την επεξεργασία αιτήσεων εργασίας και το οποίο χρησιμοποιούνταν για χρονικό διάστημα άνω των δέκα ετών, για το λόγο ότι το συγκεκριμένο σύστημα απέρριπτε αρκετές αιτήσεις γυναικών, μεροληπτώντας κατά τους. Επίσης, παρόμοιο περιστατικό, στον τομέα της εργασίας, συνέβη όταν ένας άντρας έκανε αίτηση για μια θέση εργασίας, διαδικτυακά, αλλάζοντας μόνο το φύλο από αρσενικό σε θηλυκό, στο InfoJobs, μια διαδικτυακή τράπεζα εργασίας. Ο αλγόριθμος του ιστότοπου άρχισε να απαριθμεί παραδοσιακά γυναικείες θέσεις εργασίας με μικρότερες αμοιβές, παρόλο που δεν υπήρξε καμία αλλαγή στα προσόντα του υποψηφίου. Προφανώς, υπήρξε μια μεροληψία στον αλγόριθμό της.

Η πρόβλεψη και η στόχευση όχι μόνο της ΕΕ αλλά και των περισσότερων κρατών είναι στραμμένη προς ένα μέλλον που η χρήση της Τεχνητής Νοημοσύνης είναι διευρυμένη. Παρά όποια αισιοδοξία προκαλεί αυτός ο οραματισμός, άμεσή συνέπειά είναι πως οργανισμοί τόσο του δημοσίου όσο και του ιδιωτικού τομέα, θα αποφαίνονται επί αιτήσεων και θεμάτων με γνώμονα την Τεχνητή Νοημοσύνη. Αυτές οι αποφάσεις θα συνοδεύονται με ευρείες επιπτώσεις για τους ανθρώπους, σε κάθε πτυχή της ζωής τους. Η αστυνόμευση, τα κριτήρια επιλογής δικαιούχων για συνταξιοδοτικές πληρωμές, αποφάσεις για τη στέγαση και αστική δόμηση ή για την οργάνωση παροχών ανεργίας είναι ορισμένοι από τους τομείς του δημοσίου δικαίου που θα επηρεαστούν. Συμπληρωματικά, στον ιδιωτικό τομέα, η Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί για την επιλογή αιτούντων εργασία, ενώ οι τράπεζες μπορούν να την χρησιμοποιήσουν για να αποφασίζουν εάν θα χορηγήσουν σε μεμονωμένους καταναλωτές δάνεια και πόσο υψηλά θα είναι τα οριζόμενα επιτόκια. Δεδομένου πως η δημόσια και ιδιωτική σφαίρα δεν είναι αποκομμένες μεταξύ τους, η συσσώρευση των ενδεχόμενων επιμέρους δυσμενών συνεπειών θα έχει δραματικά αποτελέσματα (Borgesius, 2018). Ενδεικτικά, η διακριτική μεταχείριση λόγω Τεχνητής Νοημοσύνης θα μπορούσε να οδηγήσει ορισμένες ομάδες της κοινωνίας να πληρώνουν συνεχώς περισσότερα, αλλά να αμείβονται λιγότερο ή να καταδικάζονται συχνότερα.

Οι παραπάνω καταστάσεις προέκυψαν από τον ορισμό της "μεταβλητής στόχου" και "ετικέτες κλάσης". Ωστόσο, υπάρχουν και περιπτώσεις όπου τα προβλήματα προκύπτουν όταν το σύστημα μαθαίνει από ένα προκατειλημμένο δείγμα. Συγκεκριμένα, κατά τη συλλογή δεδομένων σχετικά με το έγκλημα, η αστυνομία έχει την τάση να στοχοποιεί περισσότερο άτομα με ιστορικό μετανάστευσης. Έτσι τα αρχεία της αστυνομίας βρίθουν δυσανάλογα με αναφορές σε συγκεκριμένες εθνοτικές ομάδες και γειτονιές. Εάν ένα σύστημα Τεχνητής Νοημοσύνης εκπαιδευτεί σε ένα τόσο προκατειλημμένο δείγμα, θα μάθει ότι τα άτομα με μεταναστευτικό ιστορικό είναι πιο πιθανό να διαπράξουν έγκλημα (Borgesius, 2018). Οι συνέπειες ξεπερνούν τη πιθανότητα αναίτιας προσαγωγής και μπορεί να φτάσουν να επηρεάσουν την απονομή δικαιοσύνης ή τη πιθανότητα αποφυλάκισης.

Η αναφορά ορισμένων παραδειγμάτων διευκολύνει την κατανόηση του εύρους του προβλήματος. Ένα παράδειγμα που αντλείται από την πραγματικότητα, συνέβη σε μια Ιατρική Σχολή στο Ηνωμένο Βασίλειο τη δεκαετία του 1980, όταν η Σχολή έλαβε πολύ περισσότερες αιτήσεις από ό, τι θα μπορούσε να δεχτεί και ανέπτυξε ένα πρόγραμμα υπολογιστή για να βοηθήσει στην ταξινόμηση των αιτήσεων. Τα δεδομένα εκπαίδευσης (training data) που χρησιμοποιήθηκαν στο πρόγραμμα υπολογιστή ήταν τα αρχεία εισαγωγής από προηγούμενα χρόνια. Οι προηγουμένως εισαχθέντες ήταν το «πρότυπο». Εντούτοις, το πρόγραμμα έκανε διακρίσεις σε βάρος γυναικών και ατόμων με μεταναστευτικό υπόβαθρο, καθώς ελάχιστοι φοιτητές τα προηγούμενα χρόνια είχαν αυτά τα χαρακτηριστικά (Borgesius, 2018).

Τέλος, ένα άλλο παράδειγμα σχετικό με ταινίες είναι αυτό της εφαρμογής Street Bump, μια εφαρμογή smartphone που τροφοδοτείται από δεδομένα του GPS, με σκοπό την αναφορά κακών οδικών συνθηκών. Τα κινητά συλλέγουν δεδομένα οδικής κατάστασης, ενώ οι χρήστες τους οδηγούν, και παρέχουν πληροφορίες στις κυβερνήσεις, για να προγραμματίσουν μακροπρόθεσμες επενδύσεις.

-7-


Προτεινόμενες λύσεις απορρέουσες από ένα υφιστάμενο, αλλά ενισχυμένο νομοθετικό πλαίσιο. Ο νομικός κόσμος καταβάλλει κάθε δυνατή προσπάθεια διευθέτησης των νομικών ζητημάτων που προκύπτουν. Σταδιακά δημιουργούνται νομικά εργαλεία για τον μετριασμό των κινδύνων των διακρίσεων που οφείλονται στην Τεχνητή Νοημοσύνη. Τέτοιες νομικές διατάξεις απαντώνται στους νόμους περί μη διάκρισης και προστασίας δεδομένων (Borgesius, 2018). Τα κράτη μέλη του Συμβουλίου της Ευρώπης, οι φορείς παρακολούθησης των ανθρωπίνων δικαιωμάτων και οι φορείς ισότητας πρέπει να στοχεύουν στην πλήρη επιβολή των ισχυόντων κανόνων απαγόρευσης των διακρίσεων και να εργαστούν στον εμπλουτισμό της νομοθεσίας, κρατικής και διεθνής.

Ωστόσο, εάν με δεδομένο πως υπάρχουν λιγότεροι χρήστες smartphone μεταξύ των φτωχών ανθρώπων, οι φτωχές γειτονιές είναι πιθανό να είναι γεμάτες με κακής ποιότητας δρόμους, αφού υπο-εκπροσωπούνται στη βάση δεδομένων, θα επισκευάζονται λιγότερο.

Το 2019, στον τομέα της υγείας, μια μελέτη κατέδειξε πως ένας αλγόριθμος που χρησιμοποιείται στις Ηνωμένες Πολιτείες Αμερικής (ΗΠΑ) υποτίμησε τις ιατρικές ανάγκες των ασθενών διαφορετικών εθνικοτήτων (αφροαμερικάνοι, λατίνοι κλπ). Παραδόξως, τους υποτίμησε χωρίς να γνωρίζει προηγουμένως την εθνικότητά τους, επειδή είχε προγραμματιστεί να ορίζει βαθμολογίες κινδύνου για τους ασθενείς βάσει του κόστους υγειονομικής τους περίθαλψης. Είναι γεγονός, ότι οι ΗΠΑ δαπανούν λιγότερα χρήματα για την υγεία των μελαμψών ασθενών.

Όσον αφορά την ΕΕ, κρίνεται πως μια κοινή ευρωπαϊκή προσέγγιση είναι απαραίτητη για την επίτευξη επαρκούς προστασίας και την αποφυγή του κατακερματισμού της ενιαίας αγοράς. Έχει ήδη καταρτιστεί σχέδιο που προτείνει περίπου 70 κοινές δράσεις για τη στενότερη και αποτελεσματικότερη συνεργασία μεταξύ των κρατών μελών και της Επιτροπής σε βασικούς τομείς, όπως η έρευνα και οι επενδύσεις. Το πρόγραμμα έχει προγραμματιστεί να πραγματοποιηθεί έως το 2027, με τακτική παρακολούθηση και επανεξέταση. Ο στόχος είναι να μεγιστοποιηθεί ο αντίκτυπος των επενδύσεων στην έρευνα, στην καινοτομία και στην ανάπτυξη, να αξιολογηθούν οι εθνικές στρατηγικές και να αναπτυχθεί και να επεκταθεί το συντονισμένο σχέδιο για την AI με τα κράτη μέλη (Ευρωπαϊκή Επιτροπή, 2020).

Ως εκ τούτου, συνάγουμε το συμπέρασμα ότι λόγοι για τους οποίους ένας αλγόριθμος μπορεί να καθίσταται μεροληπτικός και άδικος, είναι είτε επειδή αντικατοπτρίζει την κοινωνία, αναπαράγοντας τις υφιστάμενες ανισότητες, είτε επειδή τα δεδομένα εκπαίδευσης είναι προβληματικά, είτε επειδή οι ίδιοι οι μηχανικοί- κατασκευαστές αλγορίθμων προσέθεσαν τις δικές τους μεροληπτικές απόψεις. Αναντίρρητα, σχεδόν κάθε αλγόριθμος με κοινωνικό αντίκτυπο είναι μεροληπτικός και προκατειλημμένος.

Η θέση του Κοινοβουλίου, αναφορικά με το ζήτημα αυτό, αντικατοπτρίζεται στο ψήφισμα της Επιτροπή της 12ης Φεβρουαρίου 2020, το οποίο έκρινε υποχρεωτική τη χρήση αντικειμενικών αλγορίθμων και δομών ελέγχου και αναγκαία τη μεταρρύθμιση των κανόνων ασφάλειας και νομικής ευθύνης για τα προϊόντα με δυνατότητες τεχνητής νοημοσύνης, εστιάζοντας κυρίως στο ρόλο της Επιτροπής να εξετάσει πρόσθετα μέτρα για να διασφαλιστούν τα δικαιώματα των καταναλωτών στο πλαίσιο της τεχνητής νοημοσύνης και της αυτοματοποιημένης λήψης αποφάσεων.

-8-


Το Συμβούλιο της Ευρώπης ενθαρρύνει την προστασία των ανθρωπίνων δικαιωμάτων, γενικώς, και την προώθηση των μη διακρίσεων και της ισότητας, ειδικώς, με σημαντικές παραινέσεις προς τα κράτη. Σε πρώτο γενικό επίπεδο, επιβάλλεται η νομοθέτηση για τη δημιουργία ενός πλαισίου για ανεξάρτητη και αποτελεσματική επίβλεψη της συμμόρφωσης των συστημάτων τεχνητής νοημοσύνης με τα ανθρώπινα δικαιώματα, πάντα συμπεριλαμβανομένων των ήδη υπαρχόντων οργάνων εποπτείας. Έπειτα, πρέπει να ληφθούν μέτρα που να διασφαλίζουν ότι τα όργανα επίβλεψης έχουν λάβει άρτια σχετική εκπαίδευση, είναι εμπειρογνώμονες στον τομέα της τεχνητής νοημοσύνης, αλλά και ότι έχουν λάβει την αρμόζουσα χρηματοδότηση για να επιτελέσουν το έργο τους αποτελεσματικά . Εκτός των άλλων, το Συμβούλιο της Ευρώπης αποτρέπει, αφενός, τα κράτη από το να θέτουν σε κίνδυνο τη θεσμική, οικονομική, λειτουργική και προσωπική ανεξαρτησία των εποπτευόντων οργάνων, υπεύθυνων για την διερεύνηση και παρακολούθηση της συμμόρφωσης των συστημάτων τεχνητής νοημοσύνης προς τα ανθρώπινα δικαιώματα, και αφετέρου, από το να στερούν ή να επιτρέπουν σε άλλους να στερούν από τα εν λόγω όργανα τις απαραίτητες πληροφορίες ώστε να λειτουργήσουν αποδοτικά∙ μεταξύ άλλων, την πρόσβαση σε σύνολα δεδομένων, σε μοντέλα- αλγορίθμους, την επιχειρησιακή καθοδήγηση και την δέουσα επιμέλεια των ανθρωπίνων δικαιωμάτων. Εμβαθύνοντας, στις υφιστάμενες προκαταλήψεις, προτείνεται η πρόληψη και ο μετριασμός –από το κράτος- των κινδύνων διάκρισης λόγω της χρήσης εφαρμογών τεχνητής νοημοσύνης για ομάδες που διακατέχονται από υψηλό κίνδυνο να έχουν δυσανάλογη αντιμετώπιση ως προς τα δικαιώματά τους, καθώς επίσης, ο έλεγχος στον ύψιστο βαθμό της χρήσης τεχνητής νοημοσύνης στο πλαίσιο της επιβολής του Νόμου, ιδίως για να αποφευχθεί η στοχοποίηση ατόμων που ανήκουν σε συγκεκριμένες ομάδες.

[1] https://www.europarl.europa.eu/news/el/headlines/society /20200206STO72030/techniti-noimosuni-antimetopisi-tonkindunon-kai-prostasia-ton-katanaloton [2] https://www.kathimerini.gr/economy/international/106447 7/choris-rythmistiko-plaisio-i-techniti-noimosyni/

[3] https://www.bbvaopenmind.com/en/technology/artificialintelligence/how-to-rid-artificial-intelligence-of-humanprejudice/ [4] https://www.europarl.europa.eu/news/el/pressroom/20200206IPR72015/kanones-gia-asfali-kai-dikaiitechnologia-technitis-noimosunis

[5] https://rm.coe.int/unboxing-artificial-intelligence-10-stepsto-protect-human-rights-reco/1680946e64 [6] https://rm.coe.int/discrimination-artificial-intelligence-andalgorithmic-decision-making/1680925d73

Βεβαίως, όπως επισημάνθηκε, σε διαφορετικούς τομείς Τεχνητής Νοημοσύνης, υπάρχουν διαφορετικά διακυβεύματα. Συνεπώς, πρέπει να ληφθούν ειδικοί κανόνες και να εντατικοποιηθεί η έρευνα που θα τροφοδοτήσει την απαραίτητη νομική και πολιτική συζήτηση. Ένα κανονιστικό πλαίσιο θα πρέπει να επικεντρώνεται στον τρόπο ελαχιστοποίησης των διαφόρων κινδύνων πιθανής βλάβης, αλλά και να προσπαθήσει να εξαλείψει τις διακρίσεις εν γένει.

-Ελένη Γιαννακού, Δήμητρα Πανοπούλου.

-9-


Βιβλιογραφικές αναφορές - Πηγές [1] Borgesius, F. Z. (2018). Discrimination, artificial intelligence, and algorithmic decision-making. Directorate General of Democracy-Council of Europe. https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73 [2] Ευρωπαϊκή Επιτροπή. (2020). White Paper: On Artificial Intelligence - A European approach to excellence and trust.Βρυξέλλες. [3] Amitos.library.uop.gr [4] https://amitos.library.uop.gr/xmlui/bitstream/handle/123456789/5692/896%202020%20%ce%a3%ce%a7%ce%9f%ce%99%ce%9d%ce%91%ce %a3%20%ce%9a%ce%9b%ce%95%ce%91%ce%9d%ce%98%ce%97%ce%a3.pdf?sequence=1&isAllowed=y [5] Τι είναι η τεχνητή νοημοσύνη και πώς χρησιμοποιείται; | Επικαιρότητα | Ευρωπαϊκό Κοινοβούλιο [6] https://www.europarl.europa.eu/news/el/headlines/society/20200827STO85804/ti-einai-i-techniti-noimosuni-kai-pos-chrisimopoieitai [7] Η επερχόμενη επανάσταση στις υποθέσεις των μυστικών υπηρεσιών | Foreign Affairs - Hellenic Edition [8] https://www.foreignaffairs.gr/articles/72889/anthony-vinci/i-eperxomeni-epanastasi-stis-ypotheseis-ton-mystikon-ypiresio [9] nΤεχνητή Νοημοσύνη και Κυβερνοασφάλεια: Πραγματικότητα και Υπερβολές [10] https://www.homodigitalis.gr/posts/3752 [11]Τι αλλαγές φέρνει η τεχνητή νοημοσύνη στους στρατιωτικούς εξοπλισμούς; News new-economy.gr [12] https://new-economy.gr/2020/10/19/ti-ferni-i-texniti-noimosini/ [13]Inside the Pentagon’s Plan to Win Over Silicon Valley [14] https://www.wired.com/story/inside-the-pentagons-plan-to-win-over-silicon-valleys-ai-experts/ [15]What is Project Maven? The Pentagon AI project Google employees want out of [16] https://globalnews.ca/news/4125382/google-pentagon-ai-project-maven/ [17]Ο «Κώδικας Ηθικής» της Ευρώπης για την Τεχνητή Νοημοσύνη | LiberalGr [18] https://www.liberal.gr/technology/o-kodikas-ithikis-tis-europis-gia-tin-techniti-noimosuni/248156

-10-



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.