Τα εργαλεία τεχνητής νοημοσύνης που δύνανται να δίνουν απαντήσεις που μοιάζουν με ανθρώπινες είναι ένα από τα θέματα που απασχολούν περισσότερο την τεχνολογική βιομηχανία, με την Google, τη Microsoft και τις νεοσύστατες επιχειρήσεις δισεκατομμυρίων δολαρίων που αγωνίζονται να κυκλοφορήσουν πρώιμες εκδόσεις μηχανών αναζήτησης και εργαλείων παραγωγικότητας που χρησιμοποιούν τη νέα τεχνολογία, σύμφωνα με το CNBC.
Οι εταιρείες που αναπτύσσουν αυτό το λογισμικό λένε ότι θα εξοικονομήσουν ώρες χρόνου και θα απογειώσουν την ανθρώπινη δημιουργικότητα.
Παρ’ όλα αυτά, το κοινό δεν φαίνεται να έχει πειστεί ακόμα. Μόλις το 9% των Αμερικανών πιστεύει ότι η τεχνητή νοημοσύνη θα ωφελήσει την κοινωνία, σύμφωνα με νέα δημοσκόπηση του Πανεπιστημίου Monmouth.
Περισσότεροι από τους μισούς βλέπουν την τεχνητή νοημοσύνη ως δυνητικό κίνδυνο
Περίπου 5 στους 10 ερωτηθέντες – ή το 46% – πιστεύουν ότι η ανάπτυξη της τεχνητής νοημοσύνης θα κάνει περίπου το ίδιο καλό και κακό, ενώ το 41% των ατόμων του δείγματος πιστεύει ότι η τεχνολογία θα κάνει τελικά κακό στην κοινωνία συνολικά.
Σύμφωνα με τη δημοσκόπηση, περισσότεροι από τους μισούς Αμερικανούς – 55% – ανησυχούν πολύ ή λίγο ότι η τεχνητή νοημοσύνη θα μπορούσε μια μέρα να αποτελέσει κίνδυνο για το ανθρώπινο γένος.
Παρουσιάζει προβλήματα η τεχνητή νοημοσύνη;
Η τεχνητή νοημοσύνη είναι ένας γενικός όρος που περιγράφει έναν αριθμό διαφορετικών προγραμμάτων που χρησιμοποιούν όγκους δεδομένων για να βελτιώσουν τη λειτουργικότητά τους χωρίς την παρέμβαση των προγραμματιστών λογισμικού. Αλλά η πρόσφατη διαφημιστική εκστρατεία επικεντρώνεται σε μια νέα μέθοδο που ονομάζεται «μεγάλα γλωσσικά μοντέλα» και αναλύει terabytes δεδομένων.
Τα μεγάλα γλωσσικά μοντέλα (LLMs) χρησιμοποιούνται όλο και περισσότερο σε εργαλεία δημιουργικής τεχνητής νοημοσύνης, όπως το ChatGPT ή το μη κυκλοφορημένο Bard της Google, το οποίο μπορεί να παράγει σύνολα κειμένου. Σχετικά μοντέλα μπορούν να δημιουργήσουν σχέδια ή ήχο που μοιάζει με την ανθρώπινη παραγωγή.
Όμως έχουν υπάρξει προβλήματα με τα μεγάλα γλωσσικά μοντέλα, τα οποία μπορούν απλώς να επινοήσουν πληροφορίες, ένα φαινόμενο γνωστό ως «ψευδαισθήσεις». Τόσο η Google και το Microsoft πρόσφατες παρουσιάσεις τεχνητής νοημοσύνης έδειξαν ότι το λογισμικό τους έκανε πραγματικά λάθη.
Επιπλέον, ορισμένοι παρατηρητές ανησυχούν ότι η προηγμένη τεχνητή νοημοσύνη μπορεί να πάρει τις δουλειές των ανθρώπων ή να καταστήσει ορισμένα επαγγέλματα παρωχημένα. Επιπλέον, τα LLM και τα chatbots που βασίζονται σε αυτά μπορούν επίσης να πείσουν τους ανθρώπους ότι τα εργαλεία σκέφτονται και αισθάνονται πραγματικά.
Οι πρόσφατες εξελίξεις στη γεννητική τεχνητή νοημοσύνη δεν είναι το μόνο ζήτημα που ανησυχεί το κοινό. Ορισμένοι αλγόριθμοι τεχνητής νοημοσύνης μπορούν να χρησιμοποιηθούν για την αναγνώριση προσώπου, για παράδειγμα, για την ταυτοποίηση ανθρώπων που παρακολουθούν αθλητικές εκδηλώσεις. Ενώ η πρακτική αυτή έχει επικριθεί, μια ισχνή πλειοψηφία των ερωτηθέντων – 54% – υποστήριξε αυτό το είδος χρήσης.
naftemporiki.gr
0 Post a Comment:
Δημοσίευση σχολίου