Νοα Χαράρι σε κυβερνήσεις για Τεχνητή Νοημοσύνη: Μπορεί να χάσουμε αμετάκλητα τον έλεγχο!!

Λίγο πριν από τη δεύτερη Σύνοδο Κορυφής για την Ασφάλεια της Τεχνητής Νοημοσύνης, σήμερα και αύριο, 21 και 22 Μαϊου, στη Σεούλ, κορυφαίοι επιστήμονες σε αυτόν τον τομέα ζητούν από τους παγκόσμιους ηγέτες να αναλάβουν ισχυρότερη δράση για τους κινδύνους της τεχνητής νοημοσύνης, διαπιστώνοντας ότι η πρόοδος είναι ανεπαρκής μετά την πρώτη Σύνοδο που διεξήχθη πριν από έξι μήνες.

Σε άρθρο που δημοσίευσαν στο περιοδικό «Science», 25 επιστήμονες από τις ΗΠΑ, την ΕΕ, το Ηνωμένο Βασίλειο και την Κίνα αναφέρουν ότι στην πραγματικότητα δεν έχουν γίνει αρκετά για την προστασία μας από τους κινδύνους της τεχνολογίας.

Όπως επισημαίνουν, είναι επιτακτική ανάγκη οι παγκόσμιοι ηγέτες να λάβουν σοβαρά υπόψη τους την πιθανότητα ότι μέσα στην τρέχουσα ή την επόμενη δεκαετία θα αναπτυχθούν εξαιρετικά ισχυρά συστήματα γενικής τεχνητής νοημοσύνης, που θα υπερτερούν των ανθρώπινων ικανοτήτων σε πολλούς κρίσιμους τομείς.

Την ίδια ώρα, παρ’ όλο που οι κυβερνήσεις παγκοσμίως έχουν κάνει κάποιες προσπάθειες να εισάγουν αρχικές κατευθυντήριες γραμμές, οι κινήσεις τους είναι αναντίστοιχες με την πιθανότητα ταχείας προόδου, που αναμένουν πολλοί ειδικοί.

Επιπλέον, εντοπίζουν ότι η τρέχουσα έρευνα για την ασφάλεια της τεχνητής νοημοσύνης είναι ελλιπής, καθώς μόνο το 1-3% των δημοσιεύσεων για την τεχνητή νοημοσύνη αφορά στην ασφάλεια. Σημειώνουν ότι δεν υπάρχουν ούτε οι μηχανισμοί ούτε οι θεσμοί για την πρόληψη της κακής χρήσης της τεχνολογίας.

Ειδικότερα:

«Πράγματι, η τεχνητή νοημοσύνη έχει ήδη ξεπεράσει τις ανθρώπινες ικανότητες σε πολλούς τομείς. Σε σύγκριση με τους ανθρώπους, τα συστήματα τεχνητής νοημοσύνης μπορούν να δρουν πιο γρήγορα, να απορροφούν περισσότερη γνώση και να επικοινωνούν σε υψηλότερο εύρος ζώνης. Επιπλέον, μπορούν να κλιμακωθούν ώστε να χρησιμοποιούν τεράστιους υπολογιστικούς πόρους και μπορούν να αναπαραχθούν κατά εκατομμύρια.
Δεν γνωρίζουμε με βεβαιότητα πώς θα εξελιχθεί το μέλλον της τεχνητής νοημοσύνης

Τα συστήματα τεχνητής νοημοσύνης απειλούν να ενισχύσουν την κοινωνική αδικία, να διαβρώσουν την κοινωνική σταθερότητα, να επιτρέψουν εγκληματική δραστηριότητα μεγάλης κλίμακας και να διευκολύνουν τον αυτοματοποιημένο πόλεμο, την εξατομικευμένη μαζική χειραγώγηση και τη διάχυτη επιτήρηση.

Πολλοί κίνδυνοι θα μπορούσαν σύντομα να ενισχυθούν και να δημιουργηθούν νέοι κίνδυνοι, καθώς οι εταιρείες εργάζονται για την ανάπτυξη αυτόνομης τεχνητής νοημοσύνης: συστήματα που μπορούν να χρησιμοποιούν εργαλεία όπως υπολογιστές για να δράσουν στον κόσμο και να επιδιώξουν στόχους

Μόλις τα αυτόνομα συστήματα τεχνητής νοημοσύνης επιδιώξουν να χτυπήσουν “ανεπιθύμητους στόχους”, μπορεί να μην είμαστε σε θέση να τα κρατήσουμε υπό έλεγχο. Ο έλεγχος του λογισμικού είναι ένα παλιό και άλυτο πρόβλημα: H τεχνητή νοημοσύνη σημειώνει πρόοδο σε κρίσιμους τομείς όπως το hacking, η κοινωνική χειραγώγηση και ο στρατηγικός σχεδιασμός και μπορεί σύντομα να δημιουργήσει άνευ προηγουμένου προκλήσεις ελέγχου.

Χωρίς επαρκή προσοχή, μπορεί να χάσουμε αμετάκλητα τον έλεγχο των αυτόνομων συστημάτων AI, καθιστώντας την ανθρώπινη παρέμβαση αναποτελεσματική».

Οι επιστήμονες ζητούν από τις κυβερνήσεις να δημιουργηθούν όργανα εμπειρογνωμόνων που θα δρουν με ταχύτητα για την εποπτεία της τεχνητής νοημοσύνης, στα οποία να παρασχεθεί πολύ μεγαλύτερη χρηματοδότηση από αυτήν που προβλέπεται.

Το άρθρο συνυπογράφουν, μεταξύ άλλων, ο ιστορικός και θεωρητικός της νέας εποχής, Γιουβάλ Νόα Χαράρι, ο επιστήμονας Πληροφορικής και πρωτοπόρος της τεχνητής νοημοσύνης με τις περισσότερες ακαδημαϊκές αναφορές στον κόσμο, Τζέφρι Χίντον, και η μελετήτρια θεμάτων ασφαλείας τεχνητής νοημοσύνης με τις περισσότερες αναφορές, Ντον Σονγκ.

Με πληροφορίες από Απεμπε-EPA photo

Δείτε περισσότερα

Related Articles

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Back to top button