Ντέιβιντ Γκρος: Μετά το 2060 η ανθρωπότητα ίσως να μην υπάρχει

Ντέιβιντ Γκρος: Μετά το 2060 η ανθρωπότητα ίσως να μην υπάρχει



Ο νομπελίστας φυσικός κρούει τον κώδωνα του κινδύνου για την αυξανόμενη πυρηνική απειλή και την ανεξέλεγκτη εξέλιξη της τεχνητής νοημοσύνης.

Η NASA βάζει τέλος στα Fake News για την «έκλειψη του αιώνα»

Σοβαρές ανησυχίες για το μέλλον της ανθρωπότητας εκφράζει ο νομπελίστας φυσικός Ντέιβιντ Γκρος, προειδοποιώντας ότι ο συνδυασμός πυρηνικού κινδύνου και τεχνητής νοημοσύνης μπορεί να οδηγήσει σε υπαρξιακή απειλή μέσα στις επόμενες δεκαετίες. Σύμφωνα με τον ίδιο, υπό συγκεκριμένες πιθανότητες εξέλιξης των κινδύνων, «μετά το 2060 ενδέχεται να μην έχει επιβιώσει τίποτα».

Οι εκτιμήσεις για τον πυρηνικό κίνδυνο

Μιλώντας στο Live Science, ο βραβευμένος φυσικός αναφέρθηκε εκτενώς στον κίνδυνο πυρηνικού ατυχήματος, υποστηρίζοντας ότι οι διεθνείς μηχανισμοί ελέγχου έχουν αποδυναμωθεί σημαντικά.

Όπως σημείωσε, μετά το τέλος του Ψυχρού Πολέμου οι συμφωνίες περιορισμού εξοπλισμών έχουν σχεδόν εκλείψει, ενώ οι γεωπολιτικές εντάσεις παραμένουν αυξημένες.

«Ακόμα και μετά τον Ψυχρό Πόλεμο υπήρχαν εκτιμήσεις για πιθανότητα 1% πυρηνικού ατυχήματος κάθε χρόνο», ανέφερε, προσθέτοντας ότι ο ίδιος θεωρεί τον κίνδυνο πιο κοντά στο 2%.

Με βάση αυτό το σενάριο, υποστήριξε ότι η «αναμενόμενη διάρκεια ζωής» της ανθρωπότητας θα μπορούσε να περιοριστεί περίπου στα 35 χρόνια, χρησιμοποιώντας ένα μαθηματικό μοντέλο παρόμοιο με εκείνο της ραδιενεργού αποσύνθεσης.

Παράλληλα, προειδοποίησε ότι:

Υπάρχουν πλέον εννέα πυρηνικές δυνάμεις
Δεν έχουν υπογραφεί νέες ουσιαστικές συμφωνίες ελέγχου την τελευταία δεκαετία
Οι διεθνείς εντάσεις (Ινδία–Πακιστάν, Ρωσία–Ουκρανία κ.ά.) αυξάνουν τον κίνδυνο
Η τεχνητή νοημοσύνη ως δεύτερη υπαρξιακή απειλή

Πέρα από τα πυρηνικά όπλα, ο Γκρος αναδεικνύει και την τεχνητή νοημοσύνη ως έναν δεύτερο, εξίσου κρίσιμο παράγοντα κινδύνου.

Όπως τονίζει, η ταχύτητα με την οποία εξελίσσεται η τεχνολογία δυσκολεύει τον ανθρώπινο έλεγχο:
«Ο αυτοματισμός και ίσως η τεχνητή νοημοσύνη θα έχουν σύντομα τον έλεγχο κρίσιμων αποφάσεων. Θα είναι πολύ δύσκολο να αντισταθούμε στο να τους δώσουμε εξουσία, επειδή λειτουργούν πολύ πιο γρήγορα από εμάς».

Παράλληλα, επισημαίνει ότι τα σημερινά συστήματα AI παρουσιάζουν ήδη φαινόμενα «παραισθήσεων», δηλαδή παραγωγής λανθασμένων ή ανακριβών αποτελεσμάτων, γεγονός που ενισχύει τους προβληματισμούς για τη χρήση τους σε κρίσιμους τομείς.

Οι απόψεις που εκφράζονται στα σχόλια των άρθρων δεν απηχούν κατ’ ανάγκη τις απόψεις της ιστοσελίδας μας, το οποίο ως εκ τούτου δεν φέρει καμία ευθύνη. Για τα άρθρα που αναδημοσιεύονται εδώ με πηγή, ουδεμία ευθύνη εκ του νόμου φέρουμε καθώς απηχούν αποκλειστικά τις απόψεις των συντακτών τους και δεν δεσμεύουν καθ’ οιονδήποτε τρόπο την ιστοσελίδα.‌‌

Ροή Ειδήσεων