17:49 Πέμπτη 9 Μαΐου 2024
eReportaz

Live:

Τεχνητή νοημοσύνη: Απειλεί να εξαφανίσει το ανθρώπινο είδος; Τι δείχνει αποκαλυπτική έκθεση

Τεχνητή νοημοσύνη: Απειλεί να εξαφανίσει το ανθρώπινο είδος; Τι δείχνει αποκαλυπτική έκθεση

Στους σημαντικούς κινδύνους που απορρέουν από την τεχνητή νοημοσύνη (AI), αναφέρεται μία έκθεση για την εθνική ασφάλεια που ανέθεσε η αμερικανική κυβέρνηση, σύμφωνα με την οποία στη χειρότερη περίπτωση, θα μπορούσε να προκαλέσει «απειλή επιπέδου εξαφάνισης για το ανθρώπινο είδος».

«Η τρέχουσα ανάπτυξη της τεχνητής νοημοσύνης θέτει επείγοντες και αυξανόμενους κινδύνους για την εθνική ασφάλεια», αναφέρει η έκθεση, την οποία το TIME έλαβε πριν από τη δημοσίευσή της.

Μάλιστα όπως σημειώνει η έκθεση: «Η άνοδος της προηγμένης τεχνητής νοημοσύνης και της AGI (τεχνητή γενική νοημοσύνη) έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την είσοδο των πυρηνικών όπλων».

Η AGI είναι μια υποθετική τεχνολογία που θα μπορούσε να εκτελεί τις περισσότερες εργασίες στο ανθρώπινο επίπεδο ή και πάνω από αυτό. Τέτοια συστήματα δεν υπάρχουν επί του παρόντος, αλλά τα κορυφαία εργαστήρια τεχνητής νοημοσύνης εργάζονται προς αυτήν την κατεύθυνση και πολλοί αναμένουν ότι η AGI θα φτάσει μέσα στα επόμενα πέντε χρόνια ή και λιγότερο.

Οι τρεις συντάκτες της έκθεσης εργάστηκαν πάνω σε αυτήν για περισσότερο από ένα χρόνο, μιλώντας με περισσότερους από 200 κυβερνητικούς υπαλλήλους, εμπειρογνώμονες και εργαζόμενους σε εταιρείες τεχνητής νοημοσύνης στο πλαίσιο της έρευνάς τους.

Τεχνητή νοημοσύνη

Μάλιστα ορισμένες από αυτές τις συνομιλίες δίνουν μια ανησυχητική εικόνα, υποδηλώνοντας ότι πολλοί εργαζόμενοι στην ασφάλεια της τεχνητής νοημοσύνης μέσα στα εργαστήρια ανησυχούν για τα στρεβλά κίνητρα που καθοδηγούν τη λήψη αποφάσεων.

Το τελικό έγγραφο, με τίτλο «Σχέδιο δράσης για την αύξηση της ασφάλειας και της προστασίας της προηγμένης τεχνητής νοημοσύνης», συνιστά μια σειρά από σαρωτικές και πρωτοφανείς δράσεις πολιτικής που, αν τεθούν σε ισχύ, θα διαταράξουν ριζικά τη βιομηχανία τεχνητής νοημοσύνης, ελαχιστοποιώντας όμως παράλληλα τους κινδύνους. Η έκθεση μάλιστα συστήνει στην αμερικανική κυβέρνηση να κινηθεί «γρήγορα και αποφασιστικά» προς αυτή την κατεύθυνση.

Οι συστάσεις της έκθεσης

Όπως συνιστά η έκθεση, το Κογκρέσο θα πρέπει να καταστήσει παράνομη την εκπαίδευση μοντέλων τεχνητής νοημοσύνης που χρησιμοποιούν περισσότερο από ένα ορισμένο επίπεδο υπολογιστικής ισχύος. Το όριο θα πρέπει να καθοριστεί από μια νέα ομοσπονδιακή υπηρεσία τεχνητής νοημοσύνης, αν και η έκθεση προτείνει, ως παράδειγμα, ότι η υπηρεσία θα μπορούσε να το ορίσει ακριβώς πάνω από τα επίπεδα υπολογιστικής ισχύος που χρησιμοποιούνται για την εκπαίδευση των σημερινών μοντέλων. Ο νέος οργανισμός τεχνητής νοημοσύνης θα πρέπει να απαιτεί από τις εταιρείες να λαμβάνουν κυβερνητική άδεια για την εκπαίδευση και την ανάπτυξη νέων μοντέλων πάνω από ένα χαμηλό όριο που θα έχει οριστεί.

Σύμφωνα με την έκθεση οι Αρχές θα πρέπει επίσης να εξετάσουν «επειγόντως» το ενδεχόμενο να απαγορεύσουν δημοσιεύσεις που αφορούν ισχυρά μοντέλα τεχνητής νοημοσύνης, για παράδειγμα με άδειες ανοιχτού κώδικα, με τις παραβιάσεις να τιμωρούνται ενδεχομένως με ποινή φυλάκισης.

Επιπλέον η κυβέρνηση θα πρέπει να αυστηροποιήσει περισσότερο τους ελέγχους για την κατασκευή και την εξαγωγή των τσιπ τεχνητής νοημοσύνης και να διοχετεύσει την ομοσπονδιακή χρηματοδότηση προς την έρευνα «ευθυγράμμισης» που επιδιώκει να καταστήσει την προηγμένη τεχνητή νοημοσύνη ασφαλέστερη.

Οι συστάσεις «δεν αντικατοπτρίζουν τις απόψεις της κυβέρνησης»

Η έκθεση ανατέθηκε στην εταιρεία Gladstone AI από το Στέιτ Ντιπάρτμεντ τον Νοέμβριο του 2022 και παραδόθηκε ως έγγραφο 247 σελίδων στις 26 Φεβρουαρίου. Οι συστάσεις «δεν αντικατοπτρίζουν τις απόψεις του υπουργείου Εξωτερικών ή της κυβέρνησης των Ηνωμένων Πολιτειών», αναφέρεται στην πρώτη σελίδα της έκθεσης.

Οι συστάσεις της έκθεσης, πολλές από τις οποίες ήταν προηγουμένως αδιανόητες, ακολουθούν μια ιλιγγιώδη σειρά σημαντικών εξελίξεων στον τομέα της τεχνητής νοημοσύνης που έχουν κάνει πολλούς παρατηρητές να αναπροσαρμόσουν τη στάση τους απέναντι στην τεχνολογία.

Καθώς οι κυβερνήσεις σε όλο τον κόσμο συζητούν για το πώς θα ρυθμίσουν καλύτερα την τεχνητή νοημοσύνη, οι μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο δημιούργησαν γρήγορα την υποδομή για να εκπαιδεύσουν την επόμενη γενιά πιο ισχυρών συστημάτων – σε ορισμένες περιπτώσεις σχεδιάζουν να χρησιμοποιήσουν 10 ή 100 φορές περισσότερη υπολογιστική ισχύ.

Εξαιρετικά απίθανο να υιοθετηθεί η σύσταση από την κυβέρνηση των ΗΠΑ

Η απαγόρευση της εκπαίδευσης προηγμένων συστημάτων τεχνητής νοημοσύνης πάνω από ένα ορισμένο όριο, αναφέρει η έκθεση, μπορεί να «μετριάσει τη δυναμική της κούρσας μεταξύ όλων των προγραμματιστών τεχνητής νοημοσύνης» και να συμβάλει στη μείωση της ταχύτητας της βιομηχανίας τσιπ που κατασκευάζει ταχύτερο υλικό.

Με την πάροδο του χρόνου, ένας ομοσπονδιακός οργανισμός τεχνητής νοημοσύνης θα μπορούσε να αυξήσει το όριο και να επιτρέψει την εκπαίδευση πιο προηγμένων συστημάτων μόλις αποδειχθεί επαρκώς η ασφάλεια των μοντέλων αιχμής, προτείνει η έκθεση. Εξίσου η κυβέρνηση θα μπορούσε να μειώσει το όριο ασφαλείας εάν ανακαλυφθούν επικίνδυνες δυνατότητες σε υπάρχοντα μοντέλα.

Η πρόταση πάντως είναι πιθανό να αντιμετωπίσει πολιτικές δυσκολίες. «Νομίζω ότι αυτή η σύσταση είναι εξαιρετικά απίθανο να υιοθετηθεί από την κυβέρνηση των Ηνωμένων Πολιτειών», είπε ο Γκρέγκ Άλεν, διευθυντής του Wadhwani Center for AI and Advanced Technologies στο Κέντρο Στρατηγικών και Διεθνών Σπουδών (CSIS), απαντώντας σε μια περίληψη που παρείχε το TIME για τη σύσταση της έκθεσης να τεθεί εκτός νόμου η διεξαγωγή εκπαιδευτικών τρεξίματος τεχνητής νοημοσύνης πάνω από ένα ορισμένο όριο.

«Χωρίς κάποιο είδος εξωγενούς σοκ, νομίζω ότι είναι αρκετά απίθανο να αλλάξουν αυτή την προσέγγιση», προσέθεσε ο Άλεν.

Οι δύο κατηγορίες κινδύνων

Η έκθεση επικεντρώνεται σε δύο ξεχωριστές κατηγορίες κινδύνων. Περιγράφοντας την πρώτη κατηγορία, την οποία αποκαλεί «κίνδυνο οπλοποίησης», η έκθεση αναφέρει: «τέτοια συστήματα θα μπορούσαν ενδεχομένως να χρησιμοποιηθούν για τον σχεδιασμό και ακόμη και την εκτέλεση καταστροφικών βιολογικών, χημικών όπλων ή κυβερνοεπιθέσεων ή να επιτρέψουν πρωτοφανείς εφαρμογές όπλων στη ρομποτική».

Η δεύτερη κατηγορία είναι αυτό που η έκθεση αποκαλεί «κίνδυνο απώλειας ελέγχου», ή η πιθανότητα τα προηγμένα συστήματα τεχνητής νοημοσύνης να ξεπεράσουν τους δημιουργούς τους. Υπάρχει, λέει η έκθεση, «λόγος να πιστεύουμε ότι μπορεί να είναι ανεξέλεγκτα, αν αναπτυχθούν με τις τρέχουσες τεχνικές και θα μπορούσαν να συμπεριφέρονται εχθρικά προς τον άνθρωπο εξ ορισμού».

Ροή Ειδήσεων

Διαβάστε ακόμη

Top News

      

Kάνε εγγραφή στο newsletter eReportaz

Ενημερώσου πρώτος με τα τελευταία νέα στην Ελλάδα και στον κόσμο.

Συνδέσου μαζί μας