
Ο εξυπνότερος άνθρωπος της Ιστορίας είχε προειδοποιήσει για το μέλλον
Πριν από το θάνατό του το 2018, ο Στίβεν Χόκινγκ απηύθυνε μια αυστηρή προειδοποίηση για το μέλλον της ανθρωπότητας, λέγοντας ότι η τεχνητή νοημοσύνη (AI), οι γενετικά τροποποιημένοι ιοί και ο πυρηνικός πόλεμος είναι οι μεγαλύτερες απειλές που αντιμετωπίζουμε.
Καθώς τρέχουμε προς τα εμπρός με τις τεχνολογικές εξελίξεις, ο Χόκινγκ προειδοποίησε ότι δημιουργούμε «νέους τρόπους με τους οποίους τα πράγματα μπορούν να πάνε στραβά».
Με την πρόοδο να μας καθιστά πιο ευάλωτους από ποτέ σε ανθρωπογενείς καταστροφές, υποστήριξε ότι είμαστε επικίνδυνα απροετοίμαστοι για να ξεφύγουμε από τη Γη σε περίπτωση καταστροφής.
Ο παγκοσμίου φήμης φυσικός δήλωσε: «Αν και η πιθανότητα μιας καταστροφής στον πλανήτη Γη σε ένα δεδομένο έτος μπορεί να είναι αρκετά χαμηλή, αθροίζεται με την πάροδο του χρόνου και γίνεται σχεδόν βέβαιη στα επόμενα χίλια ή δέκα χιλιάδες χρόνια».
Συνέχισε: «Έτσι, μια καταστροφή στη Γη δεν θα σήμαινε το τέλος της ανθρώπινης φυλής. Ωστόσο, δεν θα δημιουργήσουμε αυτοσυντηρούμενες αποικίες στο διάστημα για τουλάχιστον τα επόμενα εκατό χρόνια, οπότε πρέπει να είμαστε πολύ προσεκτικοί αυτή την περίοδο».
Είπε πάντως ότι οι άνθρωποι έχουν την τάση να «σώζουν την κατάσταση» την τελευταία στιγμή και ενθάρρυνε τους συναδέλφους του επιστήμονες να επιμείνουν στην πρόοδο στους τομείς τους.
Ο καθηγητής δήλωσε: «Ο καθηγητής είναι ο μόνος που μπορεί να κάνει κάτι τέτοιο: «Δεν πρόκειται να σταματήσουμε την πρόοδο ή να την αντιστρέψουμε, γι’ αυτό πρέπει να αναγνωρίσουμε τους κινδύνους και να τους ελέγξουμε. Είμαι αισιόδοξος και πιστεύω ότι μπορούμε να το κάνουμε. Είναι σημαντικό να διασφαλίσουμε ότι αυτές οι αλλαγές κινούνται προς τις σωστές κατευθύνσεις».
Αυτά τα σχόλια του Χόκινγκ ήρθαν καθώς είπε ότι τα ρομπότ δολοφόνοι τύπου Terminator θα μπορούσαν ενδεχομένως να εξαφανίσουν την ανθρωπότητα μετά την πρόοδο των «αυτόνομων όπλων».
Ο Χόκινγκ ήταν ένας από τους πάνω από 1.000 κορυφαίους επιστήμονες και επιχειρηματίες που υπέγραψαν μια ανοιχτή επιστολή του Ινστιτούτου Future of Life. Η επιστολή ανέφερε ότι μια κούρσα εξοπλισμών με τεχνητή νοημοσύνη είναι «σχεδόν αναπόφευκτη» και «δεν θα ήταν επωφελής για την ανθρωπότητα».
Κοινοποιήστε: