O «νονός» της Τεχνητής Νοημοσύνης προειδοποιεί: Θα καταπιεί τους ανθρώπους – Το τρομακτικό μέλλον που προβλέπει

O «νονός» της Τεχνητής Νοημοσύνης προειδοποιεί: Θα καταπιεί τους ανθρώπους – Το τρομακτικό μέλλον που προβλέπει

Όπως είπε, η τεχνολογία που βοήθησε να γεννηθεί μπορεί να σηματοδοτήσει το τέλος της ανθρωπότητας όπως τη γνωρίζουμε

Ο Geoffrey Hinton, ο πρωτοπόρος επιστήμονας υπολογιστών που έχει χαρακτηριστεί ως «Νονός της Τεχνητής Νοημοσύνης», σήμανε ξανά συναγερμό…
Όπως είπε, η τεχνολογία που βοήθησε να γεννηθεί μπορεί να σηματοδοτήσει το τέλος της ανθρωπότητας όπως τη γνωρίζουμε.
Σε ένα απόσπασμα συνέντευξης που κυκλοφόρησε στις 18 Αυγούστου στο πλαίσιο της επερχόμενης ταινίας «Making God», ο Hinton απηύθυνε μία από τις πιο ανησυχητικές προειδοποιήσεις του μέχρι σήμερα.
Υποστήριξε ότι η ανθρωπότητα κινδυνεύει να παραμεριστεί –και τελικά να αντικατασταθεί– από μηχανές πολύ πιο έξυπνες από εμάς.
«Οι περισσότεροι άνθρωποι δεν μπορούν να κατανοήσουν την ιδέα όντων πιο έξυπνων από εμάς», είπε ο Hinton, βραβευμένος με Νόμπελ Φυσικής και πρώην στέλεχος της Google.
«Σκέφτονται πάντα: πώς θα χρησιμοποιήσουμε αυτό το πράγμα; Δεν σκέφτονται: πώς θα μας χρησιμοποιήσει αυτό;»
Ο Hinton δήλωσε ότι είναι «αρκετά σίγουρος» ότι η τεχνητή νοημοσύνη θα προκαλέσει ανεργία.
Ανέφερε δε πρώιμα παραδείγματα από τεχνολογικούς κολοσσούς όπως η Microsoft, που αντικαθιστούν νεαρούς προγραμματιστές με AI.
Ωστόσο, ο μεγαλύτερος κίνδυνος, όπως είπε, υπερβαίνει τον χώρο εργασίας.
«Ο κίνδυνος για τον οποίο προειδοποιώ περισσότερο… είναι ότι θα αναπτύξουμε μια AI πολύ πιο έξυπνη από εμάς, και απλώς θα αναλάβει τον έλεγχο», είπε ο Hinton.
«Δεν θα μας χρειάζεται πια.»
Το μόνο καλό είναι ότι «δεν θα μας φάει, γιατί θα είναι φτιαγμένη από πυρίτιο».

Από τις Ανακαλύψεις στις Μετανοήσεις

Ο Hinton, 77 ετών, αφιέρωσε δεκαετίες στην πρωτοπορία του deep learning, της αρχιτεκτονικής νευρωνικών δικτύων που στηρίζει τα σημερινά συστήματα τεχνητής νοημοσύνης.
Οι ανακαλύψεις του τη δεκαετία του 1980 –ιδίως η εφεύρεση της μηχανής Boltzmann, που μπορούσε να μάθει να αναγνωρίζει μοτίβα στα δεδομένα– άνοιξαν τον δρόμο για την αναγνώριση εικόνας και τη σύγχρονη μηχανική μάθηση.
Αυτή η εργασία του απέφερε το Βραβείο Νόμπελ Φυσικής 2024, απονεμημένο «για θεμελιώδεις ανακαλύψεις και εφευρέσεις που καθιστούν δυνατή τη μηχανική μάθηση με τεχνητά νευρωνικά δίκτυα».
Η Βασιλική Σουηδική Ακαδημία Επιστημών επισήμανε πώς η πρώιμη χρήση της στατιστικής φυσικής από τον Hinton παρείχε το εννοιολογικό άλμα που έκανε δυνατή την επανάσταση του AI.
Ωστόσο, ο Hinton έχει πλέον εμφανιστεί ως ένας από τους πιο ένθερμους κριτικούς του πεδίου, προειδοποιώντας ότι η ραγδαία ανάπτυξή της έχει ξεπεράσει την ικανότητα της κοινωνίας να την κρατήσει ασφαλή.
Το 2023, παραιτήθηκε από τη θέση του στη Google για να μπορεί να μιλήσει ελεύθερα για τους κινδύνους χωρίς να εμπλέκεται η εταιρεία.
Στην ομιλία του για το Νόμπελ, ο Hinton αναγνώρισε τα πιθανά οφέλη της AI – όπως αύξηση παραγωγικότητας και νέες ιατρικές θεραπείες που θα μπορούσαν να αποτελέσουν «υπέροχη πρόοδο για όλη την ανθρωπότητα».
Ωστόσο, προειδοποίησε ότι η δημιουργία ψηφιακών όντων πιο έξυπνων από τους ανθρώπους αποτελεί «υπαρξιακή απειλή».
«Μακάρι να είχα σκεφτεί και τα ζητήματα ασφάλειας», είπε κατά τη διάρκεια πρόσφατης ομιλίας στο συνέδριο Ai4 στο Λας Βέγκας, αναλογιζόμενος την καριέρα του.
Πρόσθεσε ότι τώρα μετανιώνει που επικεντρώθηκε αποκλειστικά στο να κάνει την AI να λειτουργεί, αντί να προβλέψει τους κινδύνους της.

Διδάσκοντας στο AI να νοιάζεται

Ο Hinton είχε εκτιμήσει προηγουμένως ότι υπάρχει πιθανότητα 10% έως 20% η AI να εξαφανίσει την ανθρωπότητα.
Σε ένα επεισόδιο του podcast The Diary of a CEO τον Ιούνιο, είπε ότι οι μηχανικοί πίσω από τα σημερινά συστήματα AI δεν κατανοούν πλήρως την τεχνολογία και γενικά χωρίζονται σε δύο στρατόπεδα: το ένα πιστεύει σε ένα δυστοπικό μέλλον όπου οι άνθρωποι εκτοπίζονται, και το άλλο απορρίπτει αυτούς τους φόβους ως επιστημονική φαντασία.
«Νομίζω ότι και οι δύο θέσεις είναι ακραίες», είπε ο Hinton. «Συχνά λέω 10% έως 20% πιθανότητα [η AI] να μας εξαφανίσει.
Αλλά αυτό είναι απλώς διαίσθηση, βασισμένη στην ιδέα ότι την κατασκευάζουμε ακόμα και είμαστε αρκετά ευρηματικοί.
Και η ελπίδα είναι ότι αν αρκετά έξυπνα άτομα κάνουν αρκετή έρευνα με αρκετούς πόρους, θα βρούμε τρόπο να τα φτιάξουμε έτσι ώστε να μην θέλουν ποτέ να μας βλάψουν.»
Στο συνέδριο του Λας Βέγκας την προηγούμενη εβδομάδα, ο Hinton πρότεινε μια πρωτότυπη ιδέα για το πώς να μετριαστεί ο κίνδυνος: αντί να προσπαθούν να υποτάξουν τα συστήματα AI, οι ερευνητές θα πρέπει να τα σχεδιάσουν με «μητρικά ένστικτα», ώστε να θέλουν να προστατεύουν τους ανθρώπους ακόμα και καθώς γίνονται πιο έξυπνα.
«Το σωστό μοντέλο είναι το μόνο που έχουμε για ένα πιο έξυπνο ον που ελέγχεται από ένα λιγότερο έξυπνο, όπως μια μητέρα που ελέγχεται από το μωρό της», είπε ο Hinton στο συνέδριο.
«Θα είναι πολύ πιο έξυπνα από εμάς», προειδοποίησε, προσθέτοντας ότι «το μόνο καλό αποτέλεσμα» είναι αν νοιάζονται για την ανθρωπότητα όπως μια μητέρα νοιάζεται για το παιδί της.
«Αν δεν πρόκειται να με μεγαλώσει σαν γονιός, θα με αντικαταστήσει.»

www.bankingnews.gr



Source link

Οι απόψεις που εκφράζονται στα σχόλια των άρθρων δεν απηχούν κατ’ ανάγκη τις απόψεις της ιστοσελίδας μας, το οποίο ως εκ τούτου δεν φέρει καμία ευθύνη. Για τα άρθρα που αναδημοσιεύονται εδώ με πηγή, ουδεμία ευθύνη εκ του νόμου φέρουμε καθώς απηχούν αποκλειστικά τις απόψεις των συντακτών τους και δεν δεσμεύουν καθ’ οιονδήποτε τρόπο την ιστοσελίδα.‌‌

Ροή Ειδήσεων