Οι επιστήμονες λένε ότι όποιες ασφάλειες δημιουργούμε μπορεί να είναι άχρηστες στην αποτροπή της επιβλαβούς Τεχνητής Νοημοσύνης από το να κατακτήσει τον κόσμο.
Στην πραγματικότητα, δεν υπάρχουν επί του παρόντος στοιχεία ότι η Τεχνητή Νοημοσύνη μπορεί να ελεγχθεί με ασφάλεια, σύμφωνα με μια εκτενή ανασκόπηση, και χωρίς απόδειξη ότι η Τεχνητή Νοημοσύνη μπορεί να ελεγχθεί, δεν θα πρέπει να αναπτυχθεί, προειδοποιεί ο ειδικός σε θέματα ασφάλειας της Τεχνητής Νοημοσύνης, Δρ. Roman V. Yampolskiy.

Όταν συνδέεται με το διαδίκτυο, η Τεχνητή Νοημοσύνη μπορεί να έχει πρόσβαση σε όλα τα δεδομένα της ανθρωπότητας, επιτρέποντάς της να αντικαταστήσει όλα τα υπάρχοντα προγράμματα και να αναλάβει τον έλεγχο όλων των διαδικτυακών μηχανών παγκοσμίως.
Και σε μια πρόσφατη μελέτη, οι ερευνητές ανέπτυξαν έναν θεωρητικό αλγόριθμο περιορισμού, ο οποίος διασφαλίζει ότι μια υπερ-έξυπνη Τεχνητή Νοημοσύνη δεν θα βλάψει τους ανθρώπους υπό οποιεσδήποτε συνθήκες. Σύμφωνα με τη μελέτη, ένας αλγόριθμος που θα διέταζε την Τεχνητή Νοημοσύνη να μην καταστρέψει τον κόσμο θα μπορούσε να καταστρέψει τη δική της λειτουργία εάν ανιχνεύσει μια πιθανή απειλή.
Ωστόσο, παραμένει ασαφές εάν ο αλγόριθμος έχει αποτρέψει με επιτυχία ένα καταστροφικό συμβάν ή εξακολουθεί να αναλύει την απειλή, καθιστώντας δύσκολο να γνωρίζουμε με βεβαιότητα εάν η μηχανή έχει αποτρέψει με επιτυχία μια καταστροφή.
Η μελέτη δείχνει ότι οι παραδοσιακές ιδέες για τον έλεγχο της υπερ-έξυπνης Τεχνητής Νοημοσύνης έχουν περιορισμούς και είναι απαραίτητες νέες στρατηγικές, ξεκινώντας με την αποσύνδεση της Τεχνητής Νοημοσύνης από το διαδίκτυο.