Υπό ποιες προϋποθέσεις η Τεχνητή Νοημοσύνη (ΤΝ) μπορεί να είναι ευεργετική και χρήσιμη για τον άνθρωπο χωρίς να αποτελεί απειλή για τις ατομικές ελευθερίες και τη Δημοκρατία; Ποιες οι πραγματικές δυνατότητες και τα όρια των «έξυπνων μηχανών»; Πόσο απέχουμε από τη δημιουργία υπερ-ευφυών συστημάτων τα οποία θα μπορούσαν να ξεφύγουν από τον ανθρώπινο έλεγχο; Μπορεί η Ελλάδα να γίνει ισότιμος παίκτης στην οικονομία της Τεχνητής Νοημοσύνης;
Στα παραπάνω ερωτήματα απαντά ο καθηγητής Ηθικής και Φιλοσοφίας του Δικαίου, John Tasioulas, πρώτος διευθυντής του Ινστιτούτου για την Ηθική στην Τεχνητή Νοημοσύνη στο Πανεπιστήμιο της Οξφόρδης και πρόεδρος της Συμβουλευτικής Επιτροπής της ELONTech, με αφορμή το Athens Roundtable: AI and The Rule of Law.
Ο όρος «Ηθική της Μηχανής» εισήχθη πριν από μερικές δεκαετίες με σκοπό «να διασφαλίσει ότι τα αυτόνομα συστήματα ΤΝ συμπεριφέρονται με ηθικό τρόπο, όταν αλληλεπιδρούν με ανθρώπους». Πιστεύετε πραγματικά ότι μπορούν να υπάρξουν αυτόνομα συστήματα ΤΝ στο μέλλον; Και αν ναι, με ποια έννοια;
Η «αυτονομία» είναι μια φευγαλέα έννοια που μπορεί να σημαίνει πολλά πράγματα, αλλά πιστεύω ότι κάποιες μορφές «αυτονομίας» έχουν ήδη επιτευχθεί από συστήματα τεχνητής νοημοσύνης ή σύντομα θα επιτευχθούν. Υπάρχει μια ελάχιστη έννοια «αυτονομίας» την οποία πολλά συστήματα τεχνητής νοημοσύνης ήδη επιδεικνύουν, όπως, για παράδειγμα, τα αυτοκίνητα χωρίς οδηγό ή τα αυτόνομα οπλικά συστήματα, τα οποία μπορούν να λάβουν μια απόφαση δίχως να υπάρχει η ανάγκη, ή ίσως ακόμη και η δυνατότητα, της άμεσης επέμβασης του ανθρώπου. Ωστόσο τα συστήματα ΤΝ έχουν επιτύχει να είναι αυτόνομα και κατά μια πολύ πιο περιεκτική έννοια του όρου.
Τα συστήματα τεχνητής νοημοσύνης που βασίζονται στη μηχανική μάθηση μπορούν να λάβουν αποφάσεις που εκπληρώνουν τους στόχους που έχουν θέσει οι σχεδιαστές τους γι’ αυτά, οι οποίες αποφάσεις, όμως, δεν είχαν προβλεφθεί – ή, δεν μπορούσαν να έχουν προβλεφθεί – από εκείνους που τα σχεδίασαν. Κλασικό παράδειγμα για την περίπτωση αυτή είναι οι αλγόριθμοι που αναπτύχθηκαν από την DeepMind και ενσωματώθηκαν σε ηλεκτρονικά παιχνίδια, οι οποίοι πραγματοποιούσαν κινήσεις που εξέπληξαν τους ίδιους τους σχεδιαστές τους στην περίπτωση παιχνιδιών όπως το Breakout και το Go. Πράγματι, ο Λι Σεντόλ, ο παγκόσμιος πρωταθλητής του Go, ο οποίος ηττήθηκε από το AlphaGo, είπε ότι η εμπειρία τού να παίζεις ενάντια σε ένα τέτοιο σύστημα τον έπεισε ότι ήταν γνήσια «δημιουργικό».
Ο Εμάνουελ Καντ περιέγραψε την αυτονομία ως «την ιδιότητα της βούλησης με την οποία αυτή γίνεται νόμος για τον εαυτό της (ανεξάρτητα από οποιαδήποτε ιδιότητα των αντικειμένων της βούλησης). Θα μπορούσαν τα συστήματα ΤΝ να αναπτύξουν ελεύθερη βούληση στο μακρινό μέλλον;
Θα ήταν βιαστικό για έναν φιλόσοφο, ή ίσως για οποιονδήποτε άλλο, να προσπαθήσει να προβλέψει ποιες εξελίξεις θα μπορούσαν να προκύψουν στο μακρινό μέλλον. Θεωρώ ότι η καντιανή έννοια της αυτονομίας συνίσταται στην ικανότητα να υποχωρούμε από οποιαδήποτε κλίση ή επιθυμία που μπορεί να έχει κάποιος, συμπεριλαμβανομένων εκείνων που μας εμφύτευσε η ανατροφή μας, και να συλλογιζόμαστε σχετικά με το αν πρέπει να τις ακολουθήσουμε. Σε αντίθεση με τα υπόλοιπα όντα που γνωρίζουμε, οι άνθρωποι έχουμε τη δυνατότητα να αποστασιοποιούμαστε από τα κίνητρά μας, να τα υποβάλλουμε στον έλεγχο του ορθού λόγου και να αποφασίζουμε ελεύθερα υπό το φως αυτής της αξιολόγησης τον τρόπο κατά τον οποίον θα ενεργούμε. Αυτή η ικανότητα είναι η πηγή μιας ιδιαίτερης αξιοπρέπειας που ενυπάρχει σε όλα τα ανθρώπινα όντα. Είναι σημαντικό στο πλαίσιο αυτό να αναφέρουμε δύο πράγματα:
Πρώτον, κανένα σύστημα τεχνητής νοημοσύνης που είναι επί του παρόντος γνωστό σε εμάς δεν παρουσιάζει κάτι που έστω να πλησιάζει αυτήν την ικανότητα ορθολογικής αυτονομίας – δεν μπορούν να αναστοχαστούν γύρω από τη λογική ευστάθεια των σκοπών που έχουμε προγραμματίσει μέσα τους.
Δεύτερον, ακόμη και οι κορυφαίοι επιστήμονες που ασχολούνται με την τεχνητή νοημοσύνη, όπως ο Στούαρτ Ράσελ από το Πανεπιστήμιο του Berkeley, οι οποίοι έχουν εκφράσει τις ανησυχίες τους μπροστά στην προοπτική δημιουργίας υπερ-ευφυών συστημάτων τεχνητής νοημοσύνης, τα οποία θα μπορούσαν να ξεφύγουν από τον έλεγχό μας και να αποτελέσουν απειλή για την ύπαρξη της ανθρωπότητας, εξακολουθούν να κινούνται εντός μιας στενής έννοιας της ευφυΐας, την οποία αντιμετωπίζουν ως τη δυνατότητα ενός συστήματος τεχνητής νοημοσύνης να επιτυγχάνει τους στόχους που έχουν προγραμματιστεί σε αυτό, και όχι ως τη δυνατότητά του να υποβάλλει τους στόχους αυτούς σε κριτική αξιολόγηση. Συνεπώς, η ύπαρξη καντιανής ΤΝ φαντάζει μακρινό όνειρο. Και η ανησυχία μου είναι ότι η αδικαιολόγητη εστίαση σε αυτό το εξόχως υποθετικό σενάριο θα μας αποσπάσει από τις ηθικές προκλήσεις, τις οποίες τα υπάρχοντα συστήματα ΤΝ θέτουν ενώπιόν μας «εδώ και τώρα».
Τα συστήματα τεχνητής νοημοσύνης φέρεται να προσφέρουν το πλεονέκτημα της αμεροληψίας και της μη προκατάληψης στη λήψη αποφάσεων. Υπάρχουν παγίδες που πρέπει να μας απασχολούν, ειδικά όταν πρόκειται για την επιλογή προσωπικού;
Τα συστήματα τεχνητής νοημοσύνης, εάν είναι καλά σχεδιασμένα, μπορούν κατ’ αρχήν να βοηθήσουν στη βελτίωση της ποιότητας της λήψης αποφάσεων. Σαφώς, υπάρχουν πολλά γνωστά ανθρώπινα ελαττώματα που επηρεάζουν αρνητικά τη λήψη αποφάσεων – όπως η κόπωση, το προσωπικό συμφέρον, οι συναισθηματικές αντιδράσεις που μας αποσπούν – στις οποίες τα συστήματα τεχνητής νοημοσύνης δεν είναι επιρρεπή. Έτσι, τα συστήματα αυτά έχουν τη δυνατότητα να βελτιώσουν την αποτελεσματικότητα και την αποδοτικότητα της λήψης αποφάσεων σε πολλούς τομείς της ανθρώπινης ζωής, από την πρόσληψη προσωπικού και τις ιατρικές διαγνώσεις, έως τις μεταφορές και την επιβολή ποινών στους εγκληματίες. Όμως η αποτελεσματικότητα ενός αλγόριθμου τεχνητής νοημοσύνης θα εξαρτάται από την ποιότητα των δεδομένων με τα οποία εκπαιδεύεται, και εάν αυτά τα ίδια δεδομένα αλλοιωθούν με κάποιο τρόπο, ο αλγόριθμος πιθανότατα θα αναπαραγάγει ή, ακόμη, θα ενισχύσει αυτές τις προκαταλήψεις. Ένα καλό παράδειγμα για την περίπτωση αυτή είναι κάποιος αλγόριθμος που ελέγχει τα βιογραφικά των υποψήφιων για μια θέση εργασίας επί τη βάσει προηγούμενων αποφάσεων πρόσληψης που αντανακλούν σεξιστικές πρακτικές. Και ακόμη και στην περίπτωση που τα δεδομένα με βάσει τα οποία εκπαιδεύεται ένας αλγόριθμος έχουν αποκαθαρθεί από προκαταλήψεις, παραμένει η πιθανότητα ο αλγόριθμος να έχει σχεδιαστεί με τέτοιο τρόπο, ώστε να ευνοεί ορισμένους υποψηφίους αδικώντας άλλους, συχνά εν αγνοία εκείνου που τον έχει σχεδιάσει.
Πέρα από αυτές τις ανησυχίες, πρέπει ακόμα να αντιμετωπίσουμε το ζωτικής σημασίας ερώτημα που αφορά το ποσοστό λήψης αποφάσεων που θα έπρεπε να εμπιστευθούμε σε μηχανές. Στο κάτω-κάτω, ένα σύστημα τεχνητής νοημοσύνης θα μπορούσε να παραγάγει μια «ορθή απόφαση», θα είναι όμως σε θέση να εξηγήσει και να αιτιολογήσει την απόφασή του με τρόπο που να ικανοποιεί όσους επηρεάζονται από αυτήν; Μπορεί να αναλάβει την ευθύνη και να λογοδοτήσει για την απόφασή του, με τον ίδιο τρόπο που μπορεί να το πράξει ένας άνθρωπος που λαμβάνει αποφάσεις; Εάν η ανάπτυξη της αλγοριθμικής λήψης αποφάσεων οδηγηθεί στα άκρα, η ίδια η ιδέα της Δημοκρατίας μπορεί να τεθεί σε κίνδυνο, αφού η δημοκρατία αφορά ελεύθερους και ισότιμους πολίτες που συμμετέχουν στην αυτοδιοίκηση μέσω της συλλογικής λήψης αποφάσεων, παρέχοντας ο ένας στον άλλο κατανοητούς λόγους για τις αποφάσεις που λαμβάνουν. Εν ολίγοις, δεν μας ενδιαφέρει μόνο η ποιότητα των αποφάσεων που λαμβάνονται, αλλά και ο τρόπος με τον οποίον αυτές λαμβάνονται. Εξαιτίας αυτού, πρέπει να εργαστούμε για την ασφαλή ενσωμάτωση των συστημάτων τεχνητής νοημοσύνης στη λήψη αποφάσεων από ανθρώπους, και να μην επιτρέψουμε τα συστήματα να υποκαταστήσουν τον άνθρωπο στις περιπτώσεις που αυτό θα απέδιδε επαρκή αποτελέσματα.
Η τεχνητή νοημοσύνη συχνά λέγεται ότι εγείρει ορισμένες ανησυχίες σχετικά με ζητήματα ακεραιότητας, ασφάλειας και αυτονομίας, ειδικά όσον αφορά τα ευάλωτα προσωπικά δεδομένα – οι συσκευές ανίχνευσης εγγύτητας και επαφής COVID-19 αποτελούν καλό παράδειγμα για αυτές τις ανησυχίες. Ανησυχείτε για θέματα που σχετίζονται με την ασφάλεια της τεχνητής νοημοσύνης;
Σίγουρα. Δεδομένου ότι οι αλγόριθμοι μηχανικής μάθησης πρέπει να εκπαιδεύονται σε τεράστιες ποσότητες ψηφιακών δεδομένων, υπάρχουν σοβαρές περιπλοκές σε σχέση με την ιδιωτικότητα και άλλες πολιτικές ελευθερίες μας. Αυτό είναι γνωστό. Αλλά ταυτόχρονα, πρέπει να αποφύγουμε να καταστήσουμε την ιδιωτικότητα ή την ελευθερία φετίχ. Τα συμφέροντά μας στην ιδιωτικότητα και την ελευθερία είναι ένα πράγμα, όμως αυτά πολύ συχνά εξισώνονται με δικαιώματα στην ιδιωτικότητα ή την ελευθερία. Όμως τα δικαιώματα διαφέρουν από τα απλά συμφέροντα στο ότι συνεπάγονται πάντα αντίστοιχα καθήκοντα – και η ύπαρξη καθηκόντων πρέπει να προσδιορίζεται εν μέρει σε σχέση με το κόστος της επιβολής ενός τέτοιου καθήκοντος. Κάποιοι μπορεί να αισθάνονται έντονο ενδιαφέρον για την ελευθερία τους να μην φορούν μάσκα ή να μην εμβολιάζονται κατά του κορωνοϊού, αλλά δεδομένου του πιθανού κόστους για τους άλλους, είναι πολύ αμφίβολο ότι κάποιος έχει το δικαίωμα να είναι ακάλυπτος – χωρίς μάσκα – ή ανεμβολίαστος κατά τη διάρκεια μιας πανδημίας. Η εμφάνιση νέων τεχνολογιών όπως η τεχνητή νοημοσύνη μπορεί να αλλάξει ριζικά την ισορροπία κόστους και οφέλους που διαμορφώνει το περιεχόμενο των δικαιωμάτων μας στο διάβα του χρόνου. Για παράδειγμα, είναι επιτακτική ανάγκη να διερευνήσουμε τις δυνατότητες των μεγάλων δεδομένων που συνδέονται με εργαλεία τεχνητής νοημοσύνης για να προωθήσουμε σημαντικές καινοτομίες στην ιατρική έρευνα.
Όμως σε ό,τι αφορά την επίτευξη αυτού θα τονίσω τρία πράγματα. Το πρώτο είναι ότι χρειαζόμαστε εγγυήσεις πως οι επιδιωκτέοι στόχοι πράγματι αξίζουν τον κόπο, και ότι οι τεχνικές τεχνητής νοημοσύνης που υιοθετούνται διαθέτουν εύλογες προοπτικές να τους επιτύχουν. Η πανδημία covid-19 προσφέρει μαθήματα ως προς αυτό: δυστυχώς, πολλά από τα προγνωστικά εργαλεία τεχνητής νοημοσύνης που αναπτύχθηκαν με μεγάλο κόστος πρόσφεραν ελάχιστη βοήθεια στη διάγνωση και τη διαλογή ασθενών με covid-19 και σε ορισμένες περιπτώσεις ήταν δυνητικά επιβλαβή.
Το δεύτερο είναι ότι πρέπει να αναρωτηθούμε εάν τα προσωπικά δεδομένα είναι πραγματικά απαραίτητα ώστε να διασφαλισθεί η πρόοδος, και να μην υποθέτουμε νωχελικά ότι αυτό ισχύει αδιαφοροποίητα. Τρίτον, είναι ζωτικής σημασίας να διασφαλιστούν ισχυρές μορφές δημοκρατικής εποπτείας σχετικά με το σχεδιασμό, την ανάπτυξη και τη λειτουργία τεχνολογιών τεχνητής νοημοσύνης που βασίζονται σε τεράστιες ποσότητες δεδομένων. Μόνο σε μια πραγματικά δημοκρατική κοινωνία υπάρχουν οι θεσμικές δικλείδες ασφαλείας που θα μας επιτρέψουν να αξιοποιήσουμε υπεύθυνα το πλήρες δυναμικό της τεχνητής νοημοσύνης για την προαγωγή της ανθρώπινης ευημερίας.
Τι μπορεί να μας διδάξει η τεχνητή νοημοσύνη για την ανθρώπινη συνείδηση; Υπάρχει πιθανότητα οι μηχανές ΤΝ να έχουν ποτέ καλύτερη κατανόηση από εμάς τους ίδιους;
Η τεχνητή νοημοσύνη μας φέρνει ήδη αντιμέτωπους με ένα νέο είδος νοημοσύνης που, όσον αφορά τα αποτελέσματα, ξεπερνά την ανθρώπινη νοημοσύνη σε ορισμένους τομείς. Εργαλεία τεχνητής νοημοσύνης όπως το AlphaFold, για παράδειγμα, χρησιμοποιούν τη μάθηση ενίσχυσης ώστε να δημιουργήσουν νέα μοντέλα για την κατανόηση της δομής των πρωτεϊνών. Έχει υπερδιπλασιάσει την ακρίβεια προηγούμενων μεθόδων, αποδίδοντας πολύτιμες γνώσεις που υπόσχονται να μας βοηθήσουν στην θεραπεία ασθενειών. Επιπλέον, η τεχνητή νοημοσύνη επιτυγχάνει αυτά τα εντυπωσιακά αποτελέσματα μέσω μεθόδων –η ανακάλυψη εξαιρετικά πολύπλοκων στατιστικών προτύπων που δεν μπορεί να ανιχνεύσει η ανθρώπινη νοημοσύνη– που όχι μόνο διαφέρουν ριζικά από την ανθρώπινη λογική, αλλά είναι σε μεγάλο βαθμό απρόσιτες, ακόμη και για τους ίδιους τους σχεδιαστές των συστημάτων ΤΝ. Εξαιτίας του γεγονότος αυτού η τεχνητή νοημοσύνη μπορεί να προξενήσει κοσμογονικές αλλαγές στον τρόπο που βλέπουμε την πραγματικότητα, καθώς τώρα συνεργαζόμαστε με μια νέα και ισχυρή μη-ανθρώπινη νοημοσύνη για πρώτη φορά στην ιστορία.
Αλλά θα θέσει επίσης μια βαθιά ηθική πρόκληση σχετικά με το τι σημαίνει να είσαι άνθρωπος στην εποχή της τεχνητής νοημοσύνης. Η επέλευση της τεχνητής νοημοσύνης απειλεί να μας εκθρονίσει από την πρώτη θέση σε ό,τι αφορά την νόηση, ενώ επίσης απειλεί να μας αποξενώσει από έναν κόσμο στον οποίο διανοητικά καθήκοντα ανατίθενται όλο και περισσότερο σε συστήματα ΤΝ των οποίων τις λειτουργίες δεν μπορούμε να κατανοήσουμε πλήρως. Πώς μπορούμε να αντλήσουμε τα οφέλη της τεχνητής νοημοσύνης, διατηρώντας και ενισχύοντας αυτό που έχει αξία για την ανθρώπινη υπόσταση μας;
Πιστεύετε ότι η Ελλάδα μπορεί να γίνει ισότιμος παίκτης στην οικονομία της τεχνητής νοημοσύνης;
Νομίζω ότι η Ελλάδα πρέπει να κινητοποιήσει τις δύο μεγάλες δυνάμεις της, την απαράμιλλη πολιτιστική της κληρονομιά και τους υπέροχους ανθρώπους της, που είναι οι σημερινοί φορείς αυτής της κληρονομιάς, ειδικά οι νέοι που πάντα με εντυπωσιάζουν τόσο βαθιά όποτε επισκέπτομαι την Ελλάδα. Πιστεύω ότι αυτό που θα ονομάσω «πλατωνική-αριστοτελική» προσέγγιση της ηθικής έχει πολλά να μας διδάξει σήμερα. Επιτρέψτε μου να δώσω δύο παραδείγματα.
Πρώτον, η σύγχρονη ηθική σκέψη τείνει να διακρίνει μεταξύ εκείνου που προάγει την προσωπική ευημερία και αυτού που απαιτείται ηθικώς. Η ηθική θεωρείται συχνά ως περιορισμός στην επιδίωξη της ανθρώπινης ευημερίας. Νομίζω ότι η αριστοτελική ιδέα της «ευδαιμονίας» αποτελεί μια ισχυρή ανασκευή αυτής της άποψης. Μας διδάσκει ότι (σε αντίθεση με τον Καντ και άλλους σύγχρονους στοχαστές) δεν μπορείτε να αποσυνδέσετε τις ιδέες της ηθικότητας από τις αντίστοιχες της προσωπικής ανάπτυξης. Αυτά τα δύο πρέπει να ενοποιηθούν, ως εκ τούτου ο ευδαίμων άνθρωπος του Αριστοτέλη είναι κάποιος που διαθέτει ηθικές αρετές όπως η δικαιοσύνη και το θάρρος. Και ένα μάθημα για την ηθική της τεχνητής νοημοσύνης είναι ότι δεν πρέπει να θεωρούμε την ηθική απλώς ως ένα σύνολο περιορισμών ή απαγορεύσεων στην ανάπτυξη της τεχνητής νοημοσύνης, π.χ. περιορισμών σχετικά με το σεβασμό του απορρήτου ή άλλων δικαιωμάτων. Θα πρέπει επίσης να θίξουμε το ηθικό ερώτημα εάν οι στόχοι για τους οποίους αναπτύσσεται η τεχνητή νοημοσύνη είναι πραγματικά αξιόλογοι, στόχοι που προωθούν τα συμφέροντα της ανθρωπότητας. Και δεν θα αρκεί να απαντήσουμε σε αυτήν την ερώτηση λέγοντας ότι οι στόχοι πληρούν τις υποκειμενικές προτιμήσεις κάποιου ή ότι παράγουν περισσότερο πλούτο.
Το δεύτερο παράδειγμα που θα δώσω είναι η σημασία που δίνει η πλατωνική-αριστοτελική παράδοση στην ανθρώπινη κρίση – την πρακτική σοφία του φρονίμου. Αυτό είναι ένα ισχυρό αντίβαρο στη φορμαλιστική ιδέα ότι η κατανόησή μας για το καλό μπορεί να περιοριστεί σε ένα σύστημα κανόνων που μπορεί να εφαρμοστεί μηχανικά.
Η φορμαλιστική εικόνα τυγχάνει μεγάλης υποστήριξης από την τεράστια πολιτιστική απήχηση που έχει η επιστήμη στη σύγχρονη εποχή, αλλά όπως τόνισε ο Αριστοτέλης, θα πρέπει να απαιτούμε μόνο το επίπεδο ακρίβειας που είναι κατάλληλο για κάθε θέμα, και η ηθική είναι ένα θεμελιωδώς διαφορετικό θέμα από την επιστήμη. Το αντικείμενο του ηθικού είναι «ακαθόριστο», όπως λέει ο Αριστοτέλης, εξ ου και η μεγάλη συζήτηση εκ μέρους του για την ακριβοδικία σε ό,τι αφορά τις αποφάσεις των δικαστηρίων, η οποία σχετίζεται με την σημασία που έχει να γνωρίζουμε πότε πρέπει να αποστούμε από έναν γενικά καλό νόμο ώστε να υπηρετήσουμε την δικαιοσύνης σε μια ιδιαίτερη περίπτωση. Σύμφωνα με αυτήν την άποψη, ο απόλυτος τόπος ηθικής σοφίας δεν εντοπίζεται σε ένα σύνολο προκαθορισμένων κανόνων (ή αλγορίθμων), αλλά σε ένα συγκεκριμένο είδος χαρακτήρα (ήθος), που υποστηρίζεται από μια κατάλληλη ανατροφή και κοινωνικό περιβάλλον. Εάν σκεφτόμαστε την ηθική με αυτόν τον τρόπο, είμαστε σε καλύτερη θέση να αντισταθούμε στην υπερβολική ανάθεση της λήψης αποφάσεών σε αλγόριθμους που είναι ενσωματωμένοι σε συστήματα τεχνητής νοημοσύνης.
Η Ελλάδα είναι η γεωγραφική και πολιτισμική κατοικία αυτής της βαθιάς πλούσιας ανθρωπιστικής ηθικής. Θα ήθελα πολύ να την δω να εκμεταλλεύεται αυτή την «ήπια δύναμη» προκειμένου να βοηθήσει την τεχνητή νοημοσύνη να εξελιχθεί με ηθικά ορθό τρόπο, αλλά και γενικότερα να βοηθήσει το ανθρώπινο είδος να ανταποκριθεί στις τεράστιες υπαρξιακές προκλήσεις που αντιμετωπίζει.
Ποιοι είναι οι στόχοι σας, ως Καθηγητής και Διευθυντής του Ινστιτούτου ΤΝ και Ηθικής;
Ο στόχος του Ινστιτούτου που ιδρύσαμε στην Οξφόρδη είναι να βελτιώσει την ποιότητα της ηθικής συζήτησης γύρω από τις βαθιές προκλήσεις και τις ευκαιρίες που δημιουργούνται από την ανάπτυξη της Τεχνητής Νοημοσύνης. Στόχος μας είναι να το κάνουμε με τρόπο που να θεμελιώνει την ηθική συζήτηση στη μακρά φιλοσοφική παράδοση σκέψης για την ανθρώπινη ευημερία και ηθική, που ανάγεται στους αρχαίους Έλληνες. Η Οξφόρδη έχει εδώ και καιρό μια από τις εξέχουσες φιλοσοφικές σχολές στον κόσμο και το Ινστιτούτο είναι βαθιά ενσωματωμένο στη φιλοσοφική σχολή. Επιπλέον, στοχεύουμε να εμπλουτίσουμε αυτή τη φιλοσοφική προσέγγιση με εκτενή διάλογο και συνεργασία με συναδέλφους στις ανθρωπιστικές επιστήμες ευρύτερα, καθώς και στις κοινωνικές και φυσικές επιστήμες. Κλειδί για τις δραστηριότητες του Ινστιτούτου ήταν η καλλιέργεια μιας ισχυρής πνευματικής σχέσης με μέλη του κορυφαίου στον κόσμο τμήματος επιστήμης υπολογιστών της Οξφόρδης.
Αλλά πέρα από αυτήν την καθαρά ακαδημαϊκή δραστηριότητα, είμαστε πολύ δεσμευμένοι στην προώθηση του διαλόγου όχι μόνο με βασικούς παράγοντες στον τομέα της πολιτικής τεχνητής νοημοσύνης –όπως κυβερνήσεις, ΜΚΟ, εταιρείες, διεθνείς οργανισμούς, κ.λπ.– αλλά και με απλούς πολίτες, επειδή, όπως το έθεσε ο Αριστοτέλης, μερικές φορές το άτομο που ζει σε ένα σπίτι γνωρίζει περισσότερα για αυτό από τον αρχιτέκτονα που το σχεδίασε, και όλοι ζούμε όλο και περισσότερο στο σπίτι της τεχνητής νοημοσύνης. Επιδιώκοντας αυτούς τους στόχους, ελπίζω πολύ ότι θα μπορέσουμε να δημιουργήσουμε γόνιμους δεσμούς με Έλληνες ακαδημαϊκούς, επιχειρηματίες και φορείς χάραξης πολιτικής. Πρόσφατα μας επισκέφτηκε η ευρωβουλευτής κ. Εύα Καϊλή στην Οξφόρδη, όπου έδωσε μια εξαιρετική ομιλία σχετικά με τον προτεινόμενο κανονισμό της ΕΕ για την τεχνητή νοημοσύνη. Χάρηκα που έγινα πρόεδρος του Ευρωπαϊκού Νομικού Παρατηρητηρίου για τις Νέες Τεχνολοίγες – ELONTech, η οποία κάνει σπουδαία δουλειά διερευνώντας τη σημασία της τεχνητής νοημοσύνης για αξίες όπως το κράτος δικαίου, και βρισκόμαστε σε συνεχείς συζητήσεις με την ελληνική κυβέρνηση για μελλοντική συνεργασία.
0 Post a Comment:
Δημοσίευση σχολίου