Οικονομία

Οι κίνδυνοι της τεχνητής νοημοσύνης

Το λεγόμενο πρόβλημα του γορίλα στοιχειώνει τον τομέα της τεχνητής νοημοσύνης. Πριν από περίπου δέκα εκατομμύρια χρόνια, οι πρόγονοι των σύγχρονων γοριλών δημιούργησαν τη γενετική γενεαλογία για τους ανθρώπους. Ενώ οι γορίλες και οι άνθρωποι εξακολουθούν να μοιράζονται σχεδόν το 98% των γονιδίων τους, τα δύο είδη έχουν ακολουθήσει ριζικά διαφορετικά εξελικτικά μονοπάτια. Η σύνδεση με την τεχνητή νοημοσύνη θα πρέπει να είναι προφανής. Κατά την ανάπτυξη αυτής της τεχνολογίας οι άνθρωποι κινδυνεύουν να δημιουργήσουν μια μηχανή που θα τους ξεπεράσει – όχι τυχαία, αλλά λόγω του σχεδιασμού της.

Εργαλεία τεχνητής νοημοσύνης που δημιουργούνται – δημιουργοί εικόνας από κείμενο όπως το DALL-E και το Canva, μεγάλα μοντέλα γλώσσας όπως το ChatGPT ή το Gemini της Google και δημιουργοί βίντεο από κείμενο όπως το Sora – έχουν ήδη αποδειχθεί ικανά να παράγουν και να χειρίζονται την επικοινωνία σε όλες τις αντιληπτές μορφές: κείμενο, εικόνες, ήχος και βίντεο. Αυτή η μορφή κυριαρχίας έχει σημασία, επειδή η σύνθετη γλώσσα είναι το βασικό χαρακτηριστικό που ξεχωρίζει τους ανθρώπους από άλλα είδη.

Η προσπάθεια της επιστημονικής κοινότητας θα πρέπει όχι μόνο να επικεντρωθεί στη συμβατότητα, αλλά στην οικοδόμηση μιας ανθρώπινης τεχνητής νοημοσύνης που εξυψώνει τα δυνατά μας σημεία και αντιμετωπίζει τις αδυναμίες μας, χωρίς να μας συναγωνίζεται.

Η εφαρμογή αυτών των αρχών θα απαιτούσε ένα παγκόσμιο πλαίσιο διακυβέρνησης που θα υποστηρίζεται τόσο από συμμετέχοντες του δημόσιου όσο και του ιδιωτικού τομέα.

Η ευθύνη για τη διασφάλιση της ασφαλούς τεχνητής νοημοσύνης δεν πρέπει να ανατεθεί σε μια εταιρική-ακαδημαϊκή κοινοπραξία που θα προσπαθήσει να μεγιστοποιήσει τις αποδόσεις των φιλόδοξων επενδύσεών της σε έρευνα και ανάπτυξη.

Αυτή τη στιγμή, ο νόμος AI της Ευρωπαϊκής Ενωσης αντιπροσωπεύει το πρώτο ουσιαστικό βήμα προς αυτή την κατεύθυνση. Θα απαγορεύσει ορισμένες χρήσεις τεχνητής νοημοσύνης – όπως βιομετρικά στοιχεία ή αναγνώριση προσώπου για παρακολούθηση, ή την πλαστοπροσωπία ανθρώπων – ενώ θα θέσει πρότυπα για άλλες χρήσεις υψηλού κινδύνου, όπως αυτές που επηρεάζουν την υγεία, την ασφάλεια ή τα θεμελιώδη δικαιώματα.

Αλλά θα χρειαστούν πολύ περισσότερα για να αντιμετωπιστεί το «πρόβλημα του γορίλα». Για αρχή, θα χρειαστούμε μεγαλύτερο παγκόσμιο συντονισμό και ευαισθητοποίηση του κοινού για τα σχετικά ζητήματα. Ενώ οι γορίλες στερούνται την ιστορική προοπτική που χρειάζεται για να νιώθουν λύπη που τους ξεπέρασαν οι άνθρωποι, δεν θα μπορούμε να πούμε το ίδιο για εμάς. Η διατήρηση της αυτονομίας μας θα πρέπει να είναι ο πρωταρχικός στόχος στην εποχή της τεχνητής νοημοσύνης.

Ο Εντοάρντο Καμπανέλα είναι Senior Fellow στο Mossavar-Rahmani Center for Business and Government του Harvard Kennedy School

To Top