Νομικά και Ηθικά Ζητήματα στην Τεχνητή Νοημοσύνη

Στόχος μαθήματος

Στο μάθημα θα παρουσιαστούν κα θα αναλυθούν τα ηθικά, δεοντολογικά και νομικά ζητήματα τα οποία προκύπτουν από την ανάπτυξη και τη χρήση της τεχνητής νοημοσύνης, σε γενικό επίπεδο καθώς και σε επίπεδο ειδικότερων εφαρμογών της τεχνητής νοημοσύνης (π.χ. αυτοοδηγούμενα οχήματα, αυτοματοποιημένη επεξεργασία δεδομένων προσωπικού χαρακτήρα κ.λπ.).

Ειδικότερα, στη διδακτέα ύλη καλύπτονται ενδεικτικά τα εξής θέματα:

  1.  Η έννοια της ηθικής και δεοντολογίας και οι εφαρμογές τους σε επίπεδο κανονιστικού πλαισίου της τεχνολογίας – όψεις και οπτικές της τεχνοηθικής.
  2. Η διαμόρφωση και λειτουργία των κανόνων δεοντολογίας και των νόμων, ιδίως σε ό,τι αφορά το κανονιστικό πλαίσιο για την εξέλιξη της τεχνολογίας.
  3. Ιστορική διαδρομή, τομείς και εφαρμογές της έννοιας της τεχνητής νοημοσύνης – Οι όροι ανάπτυξης και χρήσης των συστημάτων τεχνητής νοημοσύνης.
  4. Τα ηθικά ζητήματα και δεοντολογικά ζητήματα που άπτονται της ανάπτυξης και χρήσης της τεχνητής νοημοσύνης.
  5. Το νομικό πλαίσιο που διέπει σήμερα την ανάπτυξη και χρήση της τεχνητής νοημοσύνης (Ευρωπαϊκός  Κανονισμός για την τεχνητή νοημοσύνη, Γενικός Κανονισμός Προστασίας Δεδομένων, Χάρτης Θεμελιωδών Δικαιωμάτων της Ε.Ε. κ.λπ.).
  1. Ειδικότερες εφαρμογές της τεχνητής νοημοσύνης.
  2. Αρχές που διέπουν την προστασία δεδομένων προσωπικού χαρακτήρα αναφορικά με την αυτοματοποιημένη επεξεργασία δεδομένων.
  3. Τα δικαιώματα διανοητικής ιδιοκτησίας και τα δικαιώματα βιομηχανικής ιδιοκτησίας σε συνάρτηση με την χρήση της τεχνητής νοημοσύνης ως εργαλείου ή ως αυτόνομου δημιουργού πρωτότυπου έργου.
  4. Τεχνητή νοημοσύνη και προκαταλήψεις.
  5. Η εφαρμογή της τεχνητής νοημοσύνης σε ιατρικά περιβάλλοντα για τη δημιουργία αυτοματοποιημένων και ακριβέστερων διαγνώσεων.
  6. Η περίπτωση των αυτοοδηγούμενων οχημάτων, το σύστημα αυτόματης πλοήγησης – πλεονεκτήματα και μειονεκτήματα της χρήσης τους και συνεπακόλουθοι κίνδυνοι που προκύπτουν εν γένει από τη χρήση της αυτόνομης αυτοκίνησης – η συνάρτηση ηθικής και δεοντολογίας στην τεχνητή νοημοσύνη με έτερες παγιωμένες αρχές του δικαίου, π.χ. αρχή της εμπιστοσύνης.
  7. Ζητήματα τεχνοηθικής σε επίπεδο foresight.

Περίγραμμα μαθήματος

Το Μάθημα αποτελείται από δεκατρείς (13) διδακτικές ενότητες:

  1. Στην ενότητα 1 παρατίθενται οι ορισμοί της ηθικής και της δεοντολογίας, οι κλάδοι της ηθικής, τα γνωρίσματα της δεοντολογίας και η φιλοσοφική προσέγγιση των εννοιών αυτών. Επίσης, αναπτύσσεται η σύνδεση των κανόνων ηθικής και δεοντολογίας και η σχέση τους με τους κανόνες δικαίου και η λειτουργία των κανόνων δεοντολογίας ως “soft law” με την παρουσίαση και των κριτηρίων που πρέπει να συντρέχουν για να θεωρηθεί μια πράξη ως τέτοια. Επιπρόσθετα, παρουσιάζονται παραδείγματα αποτύπωσής των κανόνων δεοντολογίας σε Χάρτες ή Κώδικες Δεοντολογίας,. Τέλος, αναλύεται διεξοδικά η έννοια και οι πηγές των κανόνων δικαίου και διάκρισή τους από τους κανόνες ηθικής και δεοντολογίας.
  2. Στην ενότητα 2 παρουσιάζεται μια γενική επισκόπηση της έννοιας της τεχνητής νοημοσύνης. Αναφερόμαστε στην ιστορική εξέλιξή της, στις βασικές κατηγορίες στις οποίες διακρίνεται (α. περιορισμένη ή αδύναμη όπως μια εφαρμογή αναγνώρισης προσώπων και β. γενική ή ισχυρή που μπορεί να αναπτύσσει στοιχεία ανθρώπινης νοημοσύνης), στους τομείς και τους υπό-τομείς της. Προσεγγίζονται, επίσης, ως παραδείγματα διάφορες εφαρμογές της τεχνητής νοημοσύνης όπως λ.χ. στο πεδίο της ιατρικής επιστήμης και ιατρικής διάγνωσης, στη διασπορά ψευδών ειδήσεων (fake news), στο φαινόμενο της κλιματικής αλλαγής, στην προώθηση-διαφήμιση των προϊόντων, στη λειτουργία των smartphones και των μηχανών αναζήτησης. Επίσης, εμφαίνεται η ανάγκη να σχεδιάζονται οι τεχνολογίες τεχνητής νοημοσύνης με τρόπο που να παρέχεται η δυνατότητα ανθρώπινης παρέμβασης και το ζήτημα της ευθύνης στην τεχνητή νοημοσύνη όταν ένα μέσο τεχνητής νοημοσύνης λαμβάνει μια απόφαση η οποία  βασίζεται στην επεξεργασία των δεδομένων.
  1. Στην ενότητα αυτή αναλύεται το μείζον θέμα της ηθικής και δεοντολογίας στην τεχνητή νοημοσύνη, με θεωρίες που αναλύουν την ανασφάλεια που δημιουργεί στο ευρύ κοινό η ακραιφνής τεχνολογική πρόοδος και η επιρροή της στην κοινωνία, δεδομένου ότι η τεχνητή νοημοσύνη γεννά φόβους όπως η υπερευφύια, η κυριαρχία των ρομπότ, ένα μέλλον ανεργίας κ.α.. Τούτο καθότι η πρόοδος της τεχνολογίας επιφέρει συνέπειες που πρέπει να τίθενται υπό έλεγχο κυρίως μέσω ανάπτυξης ηθικών και δεοντολογικών κανόνων (π.χ. η δυνατότητα ευχερέστερης εκτέλεσης εργασιών υψηλής εξειδίκευσης από μηχανήματα παρά από ανθρώπους, το α. 10 της ΕΣΔΑ το οποίο προστατεύει την ελευθερία της έκφρασης κ.α.). Γίνεται, επίσης, αναφορά στον ορισμό τεχνολογικού ντετερμινισμού και την αποδόμηση της θεωρίας του, στην εμπειρική διερεύνηση και κοινωνική ενδογένεια της τεχνολογίας και σε θεωρήσεις τεχνητής νοημοσύνης υπό το πρίσμα της κοινωνιολογικής θεωρίας. Αναλύεται, επιπλέον, η κοινωνική κατασκευή της τεχνολογίας, η θεωρία της συμπαραγωγής, η θεωρία «δράστη-δικτύου», οι μετανθρωπιστικές προσεγγίσεις και οι κοινωνικές αναπαραστάσεις της τεχνητής νοημοσύνης. Τέλος, θα αναλυθεί στο πλαίσιο της διαμορφούμενης τεχνοηθικής η σκέψη ότι «ελλείπει –ή είναι, μάλλον, υπό διαμόρφωση– αυτή η ανεπίσημη νόρμα που απορρέει από μια δημοφιλή πεποίθηση η οποία θα αποτελέσει την «λυδία λίθο» για τον χαρακτηρισμό μιας συμπεριφοράς στο διαδίκτυο ως παρεκκλίνουσας» (Φ. Σπυρόπουλος, Οι εκδηλώσεις παρεκκλίνουσας συμπεριφοράς στο διαδίκτυο – Σκέψεις για τις ανάγκες εκσυγχρονισμού της ελληνικής ποινικής νομοθεσίας, εις: Κ. Σιώμου και Γ. Φλώρου (εκδ. επιμ.), Έρευνα, πρόληψη, αντιμετώπιση των κινδύνων στη χρήση του διαδικτύου, Ελληνική Εταιρεία Μελέτης της Διαταραχής του Εθισμού στο Διαδίκτυο, 2011, σελ. 137 επ.). Τούτων δοθέντων, εξετάζονται, τέλος, και τα ζητήματα τεχνοηθικής σε επίπεδο foresight.
  1. Στην παρούσα ενότητα αναλύεται το κανονιστικό και νομοθετικό πλαίσιο ως προς την ανάπτυξη και χρήση των συστημάτων τεχνητής νοημοσύνης: αναλύονται οι προδιαγραφές ανάπτυξης της τεχνητής νοημοσύνης όπως ορίζονται στον Ευρωπαϊκό Κανονισμό για την τεχνητή νοημοσύνη και στις Κατευθυντήριες Γραμμές για Αξιόπιστη Τεχνητή Νοημοσύνη, καθώς και η προστασία των θεμελιωδών δικαιωμάτων όπως αποτυπώνονται στον Χάρτη της Ε.Ε. και η προστασία της ιδιωτικότητας υπό το πρίσμα του Γενικού Κανονισμού Προστασίας Δεδομένων.Ενδεικτικά, παρουσιάζεται η νομική βάση για τη διαμόρφωση της σύγχρονης τεχνοηθικής και δεοντολογίας, η δεοντολογία μέσα από ψηφίσματα και συστάσεις (π.χ. Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου 16.02.2017, Λευκή Βίβλος τον Φεβρουάριο του 2020, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου σχετικά με την τεχνητή νοημοσύνη στις 20.01.2021, η δημοσίευση Πρότασης του Κανονισμού στις 21.04.2021 από την Ε.Ε με σκοπό την εγγύηση της ασφάλειας και των θεμελιωδών δικαιωμάτων των πολιτών).
  1. Στην ενότητα αυτή, αναλύεται το ζήτημα της παρέμβασης στην ιδιωτικότητα και της παρακολούθησης των υποκειμένων μέσω συστημάτων τεχνητής νοημοσύνης. Θα αναδειχθεί μέσω case studies η σημασία της εφαρμογής της αρχής της αναλογικότητας μεταξύ των εννόμων αγαθών των οποίων η προστασία επιδιώκεται και των μέσων που χρησιμοποιούνται για την εκπλήρωση του ανωτέρω σκοπού, καθώς επίσης και ο τρόπος με τον οποίο ο σύγχρονος τρόπος κατανάλωσης συνδέεται με την παρέμβαση στην ιδιωτικότητα των υποκειμένων των δεδομένων (βλ. ψηφιακά κοινωνικά δίκτυα, χρήση smartphones κ.λπ.) και οι συνέπειες που συνεπάγεται για τα υποκείμενα. Θα γίνει και στοχευμένη συγκριτική ανάλυση του κανονιστικού και νομοθετικού πλαισίου σε Ε.Ε. και Η.Π.Α. δεδομένου ότι οι περισσότερες περιπτώσεις που έχουν μελετηθεί προέρχονται από το περιβάλλον των Η.Π.Α.
  1. Στην ενότητα αυτή αναφέρονται εφαρμογές της τεχνητής νοημοσύνης στην (αυτοματοποιημένη) επεξεργασία δεδομένων προσωπικού χαρακτήρα, οι τρόποι αξιοποίησης της τεχνητής νοημοσύνης λόγω της συσσώρευσης πληροφοριών και προσωπικών δεδομένων που μπορούν να έχουν επιπτώσεις στην ιδιωτικότητα, οι κίνδυνοι που ελλοχεύουν ειδικά για παραβίαση αρχών για την προστασία των δεδομένων, οι οποίοι συνδέονται με τον όγκο, την ταχύτητα και την ποικιλομορφία των δεδομένων που υποβάλλονται σε επεξεργασία, Επιπλέον, αναλύεται ο τρόπος με τον οποίο η ηθική και η δεοντολογία χρησιμοποιούνται στην τεχνητή νοημοσύνη σχετικά με την προστασία δεδομένων προσωπικού χαρακτήρα, προς χάριν αποτροπής ή περιορισμού του κινδύνου από τη χρήση εφαρμογών τεχνητής νοημοσύνης μέσω της έννοιας της δεοντολογίας και των εργαλείων της (π.χ. Κώδικας Δεοντολογίας, Ινστιτούτο για την τεχνητή νοημοσύνη και τη ρομποτική, η πλατφόρμα ανταλλαγής απόψεων και πληροφόρησης σχετικά με την τεχνητή νοημοσύνη από τη Διεθνή Ένωση Τηλεπικοινωνιών, ο Ευρωπαϊκός Χάρτης Ηθικής που θέτει τις βασικές ηθικές αρχές για τις εφαρμογές τεχνητής νοημοσύνης, η Μελέτη των επιπτώσεων των προηγμένων ψηφιακών τεχνολογιών από την Επιτροπή Εμπειρογνωμόνων, η υιοθέτηση του τροποποιητικού Πρωτοκόλλου της Σύμβασης 108 του Συμβουλίου της Ευρώπης), όπως επίσης εκτίθενται και προτάσεις για την αξιοποίηση της ηθικής και της δεοντολογίας αναφορικά με τη χρήση της τεχνητής νοημοσύνης στην (αυτοματοποιημένη) επεξεργασία των δεδομένων προσωπικού χαρακτήρα. Κατονομάζονται, επίσης, αρχές που διέπουν την προστασία δεδομένων προσωπικού χαρακτήρα, όπως είναι η αρχή της ελαχιστοποίησης των δεδομένων, η αρχή του περιορισμού του σκοπού, η αρχή της ακρίβειας των δεδομένων, η πολύ σημαντική αρχή του σεβασμού των θεμελιωδών δικαιωμάτων και τέλος η αρχή του «ελέγχου από  χρήστη». Τέλος, απαριθμούνται πρακτικές εφαρμογές ηθικής και δεοντολογίας στη χρήση της τεχνητής νοημοσύνης αναφορικά με την προστασία δεδομένων προσωπικού χαρακτήρα.
  1. Σε αυτήν τη διδακτική ενότητα θα κληθεί προς εισήγηση κάποιος ειδικός για ζητήματα τεχνοηθικής και ηθικής και δεοντολογίας την τεχνητή νοημοσύνη.
  1. Στην ενότητα αυτή αναλύεται το ζήτημα της προκατάληψης στα συστήματα τεχνητής νοημοσύνης με ειδική αναφορά σε case studies που αφορούν: α. στην προκατάληψη κατά των γυναικών και ειδικότερα στην πρόσβαση σε ίσες ευκαιρίες με τους άνδρες στον εργασιακό τομέα, στην πολιτική και την κοινωνική ζωή και β. στην προκατάληψη κατά των ατόμων διαφορετικής καταγωγής κ.λπ. Στόχος της συγκεκριμένης ενότητας είναι να καταδειχθεί το πώς η ανάπτυξη και χρήση τεχνητής νοημοσύνης χωρίς συγκεκριμένο πλαίσιο ενισχύει τη δυσμενή διακριτική μεταχείριση κατά των πληθυσμιακών ομάδων, οι οποίες παραδοσιακά αντιμετωπίζουν σεξιστικές και ρατσιστικές συμπεριφορές. Στο συγκεκριμένο κεφάλαιο θα τονιστεί η σημασία των δεδομένων εκπαίδευσης του συστήματος ως προς την ενίσχυση της προκατάληψης καθώς και η σημασία της διαρκούς επένδυσης σε τεχνικές λύσεις. Θα πραγματοποιηθεί και στοχευμένη συγκριτική ανάλυση του κανονιστικού και νομοθετικού πλαισίου σε Ε.Ε. και Η.Π.Α. δεδομένου ότι οι περισσότερες περιπτώσεις που έχουν μελετηθεί προέρχονται από το περιβάλλον των Η.Π.Α.
  1. Σε αυτήν την ενότητα αναλύεται το ζήτημα της χρήσης συστημάτων τεχνητής νοημοσύνης ως εργαλείων επιρροής στη δικαιϊκή κρίση χωρίς να υφίσταται επεξήγηση του τρόπου λειτουργίας τους. Στόχος του συγκεκριμένου κεφαλαίου είναι να αναδειχθεί μέσω case studies η σημασία της εφαρμογής της αρχής της επεξηγησιμότητας σε συστήματα που παίζουν καθοριστικό ρόλο ως προς την εφαρμογή του τεκμηρίου της αθωότητας και τη διασφάλιση των δικαιωμάτων του κατηγορουμένου στην ποινική δίκη. Επίσης, λαμβάνει χώρα και στοχευμένη συγκριτική ανάλυση του κανονιστικού και νομοθετικού πλαισίου σε Ε.Ε. και Η.Π.Α. δεδομένου ότι οι περισσότερες περιπτώσεις που έχουν μελετηθεί προέρχονται από το περιβάλλον των Η.Π.Α.
  1. Στην ενότητα αυτή γίνεται ανάλυση της σύνδεσης της διανοητικής ιδιοκτησίας και της τεχνητής νοημοσύνης και της σημασίας της απονομής των δικαιωμάτων βιομηχανικής ιδιοκτησίας. Αναλύονται τα δικαιώματα που δύνανται να προστατευθούν σε έργα στα οποία συμμετέχει ως βοηθητικό εργαλείο η τεχνητή νοημοσύνη (ενδεικτικά: πνευματικά δικαιώματα, ευρεσιτεχνίες, δικαιώματα επί έργων υπολογιστικών συστημάτων) και εξετάζεται το μείζον ζήτημα του κατά πόσο δύνανται ή είναι νομικά απαραίτητο να απονεμηθούν δικαιώματα σε συστήματα τεχνητής νοημοσύνης, τα οποία παράγουν αυτόνομα πρωτότυπο έργο.
  2. Στην ενότητα αυτή αναλύονται ειδικότερα οι ευρεσιτεχνίες υπό το πρίσμα της τεχνητής νοημοσύνης και ειδικότερα: η αρχή του «ανθρώπου δημιουργού», το «νέο» και το «εφευρετικό βήμα» υπό την επιρροή της τεχνητής νοημοσύνης, καθώς και η επίδραση των νέων τεχνολογιών (block chain) στην «ψηφιακή ευρεσιτεχνία».
  1. Στην ενότητα αυτή αναλύεται η περίπτωση των αυτόνομων μεταφορικών μέσων (self-driving cars) τα οποία κινούνται μόνα τους βάσει ερεθισμάτων που λαμβάνουν από το εξωτερικό περιβάλλον, καθώς και ο κίνδυνος σε περίπτωση ατυχήματος με εμπλεκόμενα αυτοοδηγούμενα οχήματα. Παρέχονται ορισμοί για τα αυτόνομα αυτοκίνητα, το σύστημα αυτόματης πλοήγησης και τη διαμόρφωση των οχημάτων αυτών έτσι ώστε να ακολουθούν τον Κώδικα Οδικής Κυκλοφορίας. Επισημαίνονται, επίσης, τα πλεονεκτήματα και μειονεκτήματα των αυτόνομων οχημάτων, τα έξι επίπεδα αυτοματοποίησης – αυτονομίας, η ιστορική αναδρομή του αυτόνομου οχήματος και γίνεται λόγος και για τα κενά αναφορικά με την ηθική διάσταση της τεχνητής νοημοσύνης. Αναφερόμαστε, επιπλέον, η υπόθεση της Tesla και της Uber και τα ερωτήματα που οι υποθέσεις αυτές θέτουν για την ασφάλεια των αυτόνομων οχημάτων. Επισημαίνονται τα ζητήματα ευθύνης που εγείρονται, η συσχέτιση με άλλες πάγιες αρχές του δικαίου (αρχή της εμπιστοσύνης) όπως επίσης και προβλέψεις σχετικά με το μέλλον των αυτοοδηγούμενων οχημάτων.
  2.  Σε αυτήν την ενότητα διερευνώνται οι επιστημονικές και ιατρικές ανακαλύψεις από την χρήση της τεχνητής νοημοσύνης σε ιατρικά περιβάλλοντα. Ειδικότερα, γίνεται αναφορά στα «health care robots», ως ρομπότ που θα παρέχουν υποστήριξη σε ιατρικές αποφάσεις, παρακολούθηση και συμβουλευτική στους ασθενείς, προληπτική αγωγή, στις αυτοματοποιημένες και εξατομικευμένες διαγνώσεις και θεραπείες που περιλαμβάνουν και ανάλυση DNA. Εγείρονται ζητήματα ιατρικής ηθικής και δεοντολογίας αναφορικά με το ιατρικό απόρρητο, τη διαχείριση των δεδομένων των ασθενών, ζητήματα περί της ποιότητας των παρεχόμενων υπηρεσιών και της ασφαλείας των ασθενών, καθώς επίσης και ζητήματα ευθύνης αλλά και τυχόν αναξιοπιστίας των αυτοματοποιημένων διαγνώσεων.