Αν το κοντινό μέλλον χαρακτηρίζεται από την Τεχνολογία και την πρόοδο της Τεχνητής Νοημοσύνης, ενδεχομένως ένας "αυτόνομος πόλεμος" που είδαμε σε ταινίες όπως ο "Εξολοθρευτής" δεν είναι τόσο μακριά όσο νομίζουμε. Αυτό είναι ένα ανησυχητικό σενάριο διότι δεν υπάρχει σαφής κανονισμός που να οριοθετεί τις κόκκινες γραμμές στο πεδίο της μάχης. Χωρίς ανθρώπινη επίβλεψη, ο κίνδυνος να δοθούν τα κλειδιά σε έναν αλγόριθμο είναι αρκετά σοβαρός. Αυτό ήταν το αντικείμενο μιας συνάντησης μεταξύ 90 χωρών, και όλες κατέληξαν στο ίδιο συμπέρασμα εκτός από μία. Ότι η AI δεν πατάει το κουμπί.
Η συνάντηση πραγματοποιήθηκε πολύ πρόσφατα κατά τη διάρκεια της συνόδου κορυφής για την υπεύθυνη Τεχνητή Νοημοσύνη στον στρατιωτικό τομέα (REAIM) που πραγματοποιήθηκε στη Σεούλ. Η τελική συμφωνία δεν είναι δεσμευτική, αλλά ήταν μια πρώτη και σημαντική σιωπηρή προσέγγιση μεταξύ των χωρών μπροστά σε ένα πρόβλημα που έχουμε σχεδόν μπροστά μας.
Θα πρέπει οι μηχανές να λαμβάνουν αποφάσεις για τη χρήση πυρηνικών όπλων; Αυτό ήταν το μεγάλο ερώτημα και η συζήτηση και όλοι, εκτός από την Κίνα, φάνηκε να το έχουν ξεκαθαρίσει: οι άνθρωποι, όχι η τεχνητή νοημοσύνη, θα πρέπει να λαμβάνουν τις βασικές αποφάσεις σχετικά με τη χρήση πυρηνικών όπλων.
Αυτές οι σχεδόν 100 χώρες, συμπεριλαμβανομένων των ΗΠΑ, της Κίνας, του Ηνωμένου Βασιλείου, των Κάτω Χωρών και της Ουκρανίας, υιοθέτησαν το "Σχέδιο Δράσης" μετά από δύο ημέρες συνομιλιών. Όπως αναφέραμε, η συμφωνία, η οποία δεν είναι νομικά δεσμευτική και δεν υπογράφηκε από την Κίνα, τονίζει πως είναι απαραίτητο να "διατηρηθεί ο έλεγχος και η ανθρώπινη συμμετοχή σε όλες τις ενέργειες... που σχετίζονται με τη χρήση πυρηνικών όπλων".
Επιπλέον, η συμφωνία προσθέτει ότι οι δυνατότητες της AI στον στρατιωτικό τομέα "θα πρέπει να εφαρμόζονται σύμφωνα με το εφαρμοστέο εθνικό και διεθνές δίκαιο. Οι εφαρμογές AI πρέπει να είναι ηθικές και ανθρωποκεντρικές".
Η αντίδραση της Κίνας αποτελεί σύμπτωμα του μεγάλου δρόμου που απομένει να καλυφθεί και των γεωπολιτικών εντάσεων που βιώνουμε σήμερα. Δεν υπάρχει επίσης καμία απάντηση από τη Ρωσία, η οποία λόγω του πολέμου στην Ουκρανία αποκλείστηκε από τη σύνοδο κορυφής. Όπως και να έχει, η ταχεία χρήση στρατιωτικών συστημάτων που βασίζονται στην τεχνητή νοημοσύνη στις πρόσφατες συγκρούσεις, καθώς και η αυξανόμενη σημασία τους στα μελλοντικά σχέδια, έχει υπογραμμίσει την επείγουσα ανάγκη να αξιολογηθούν οι πιθανές ανεπιθύμητες συνέπειες της κατάχρησης αυτής της τεχνολογίας.
Παράδειγμα αποτελεί η ανεξέλεγκτη ανάπτυξη και χρήση μη επανδρωμένων αεροσκαφών (drones) στο πεδίο της μάχης, όπου ο μόνος πραγματικός περιορισμός είναι ο φόβος αλγοριθμικών σφαλμάτων, όπως αυτά που οδηγούν σε φίλια πυρά.
Οι χώρες που εμπλέκονται άμεσα σε συγκρούσεις έχουν ελάχιστα κίνητρα για να σταματήσουν αυτή την ανάπτυξη, όπως φαίνεται στον πόλεμο μεταξύ Ρωσίας και Ουκρανίας, όπου και οι δύο πλευρές εκμεταλλεύονται όλο και περισσότερο τα ενισχυμένα με τεχνητή νοημοσύνη drones για δράσεις με ελάχιστη ανθρώπινη επίβλεψη.
Όπως εξήγησε στη σύνοδο κορυφής η Kateryna Bondar, εμπειρογνώμονας σε θέματα προηγμένων τεχνολογιών στο Κέντρο Στρατηγικών και Διεθνών Σπουδών, "οι χώρες αυτές διστάζουν να επιβάλουν περιορισμούς, καθώς θεωρούν ότι η στρατιωτική τεχνητή νοημοσύνη αποτελεί κρίσιμο πλεονέκτημα. Σε θέματα εθνικής επιβίωσης, καμία δήλωση ή συμφωνία, όσο καλοπροαίρετη και αν είναι, δεν θα εμποδίσει μια χώρα να κάνει ό,τι είναι απαραίτητο για να εγγυηθεί την ασφάλειά της".
Ένα άλλο από τα προβλήματα που συζητήθηκαν στη σύνοδο κορυφής ήταν το πρόβλημα της θέσπισης νόμων για την Τεχνητή Νοημοσύνη. Στο πλαίσιο αυτό, ο Manoj Harjani, συντονιστής του προγράμματος Military Transformations Program στη Σχολή Διεθνών Σπουδών, σχολίασε ότι "πρόκειται για ένα διαρκές παιχνίδι προπορευόμενων, στο οποίο η τεχνολογία εξελίσσεται με πολύ ταχύτερο ρυθμό από τη διαδικασία της κυβερνητικής ρύθμισης, η οποία συχνά προχωράει αργά".
Παρά το γεγονός ότι οι ΗΠΑ απολαμβάνουν την υπεροχή στη στρατιωτική τεχνολογία από το τέλος του Ψυχρού Πολέμου, το πλεονέκτημα αυτό μοιάζει να έχει χαθεί στις τεχνολογίες τεχνητής νοημοσύνης και μηχανικής μάθησης που θα μπορούσαν να φέρουν επανάσταση στον πόλεμο, και εδώ η Κίνα εμφανίζεται ξανά στον ορίζοντα.
Σύμφωνα με μια έκθεση που δημοσιεύθηκε τον Αύγουστο από το Αυστραλιανό Ινστιτούτο Στρατηγικής Πολιτικής, η Κίνα έχει επεκτείνει την ηγετική της θέση ως το κορυφαίο ερευνητικό έθνος στον κόσμο, καταλαμβάνοντας σχεδόν το 90% των 64 κατηγοριών που εξέτασε η ομάδα εμπειρογνωμόνων, συμπεριλαμβανομένης της προηγμένης ανάλυσης δεδομένων, των αλγορίθμων AI, της μηχανικής μάθησης και της ανταγωνιστικής AI. Σε αυτό πρέπει να προστεθεί ότι κινεζικές εταιρείες όπως η Tencent Holdings, η Alibaba Group Holdings και η Huawei Technologies συγκαταλέγονται μεταξύ των 10 κορυφαίων εταιρειών που διεξάγουν έρευνα στον τομέα της τεχνητής νοημοσύνης.
Η σύνοδος κορυφής δεν ήταν ποτέ δεσμευτική, ούτε ήταν η πρόθεσή της. Ήταν απλά μια πρώτη προσέγγιση όπου κάθε έθνος έδειχνε ένα μέρος των χαρτιών του. Οι ειδικοί υποστηρίζουν ότι, παρά τις λίγες δυνατότητες επίτευξης μιας δεσμευτικής διεθνούς συμφωνίας για τη ρύθμιση της στρατιωτικής τεχνητής νοημοσύνης βραχυπρόθεσμα, ένα τέτοιο επίτευγμα θα πρέπει να είναι στο μέλλον "εξαιρετικά σημαντικό, αν είναι εφικτό".
Όπως δήλωσε η Bondar, η τεχνητή νοημοσύνη είναι, στην ουσία, ένα προϊόν ανθρώπινου σχεδιασμού, "ένα λογισμικό που μπορεί να προγραμματιστεί ώστε να συμμορφώνεται με κανόνες και κανονισμούς". Το πρόβλημα είναι ότι αυτοί οι κανόνες και οι κανονισμοί θα μπορούσαν κάλλιστα να οδηγήσουν σε σφάλματα. Είναι στο κρίσιμο, λοιπόν, να καταλήξουν οι αρμόδιοι σε συναίνεση για να ελαχιστοποιηθούν οι πιθανότητες μιας ενδεχόμενης καταστροφής.
0 Post a Comment:
Δημοσίευση σχολίου