Μετά από χρόνια έκφρασης προβληματισμών σχετικά με το ζήτημα της ανάπτυξης θανατηφόρων αυτόνομων όπλων τεχνητής νοημοσύνης, μεγάλος αριθμός κορυφαίων «παικτών» του χώρου υπέγραψαν δέσμευση πως «δεν θα συμμετάσχουν ή θα υποστηρίξουν την ανάπτυξη, κατασκευή, εμπόριο ή χρήση θανατηφόρων αυτόνομων όπλων».

Τη δέσμευση/ διακήρυξη αυτή έχουν υπογράψει πάνω από 160 εταιρείες και οργανισμοί που σχετίζονται με την τεχνητή νοημοσύνη (ΑΙ) από 36 χώρες, και 2.400 άτομα από 90 χώρες. Μεταξύ αυτών περιλαμβάνονται η GoogleDeepMind, το University College London, το XPRIZE Foundation,  η ClearPathRobotics/OTTO Motors, η European Association for AI (EurAI), η Swedish AISociety (SAIS), o Ντέμης Χασάμπης, ο Έλον Μασκ και πολλοί άλλοι.

Ο Μαξ Τέγκμαρκ, πρόεδρος του Future of Life Institute (FLI) που διοργάνωσε την όλη προσπάθεια, ανακοίνωσε τη δέσμευση/ διακήρυξη στις 18 Ιουλίου στη Στοκχόλμη της Σουηδίας, κατά την ετήσια International Joint Conference on Artificial Intelligence (IJCAI), που προσελκύει πάνω από 5.000 από τους κορυφαίους ερευνητές του κόσμου. H SAIS και το EurAI ήταν επίσης διοργανωτές του φετινού IJCAI.

«Χαίρομαι που βλέπω τους ηγέτες τα ΑΙ να περνούν από τα λόγια στη δράση, εφαρμόζοντας μια πολιτική την οποία οι πολιτικοί μέχρι τώρα δεν έχουν καταφέρει να θέσουν σε εφαρμογή. Η ΑΙ έχει μεγάλες δυνατότητες να βοηθήσει τον κόσμο- αν στιγματίσουμε και αποτρέψουμε την κατάχρησή της. Όπλα τεχνητής νοημοσύνης που αυτόνομα αποφασίζουν να σκοτώνουν ανθρώπους είναι το ίδιο απεχθή και αποσταθεροποιητικά με τα βιολογικά όπλα, και θα έπρεπε να αντιμετωπίζονται με τον ίδιο τρόπο» είπε ο Τέγκμαρκ.

Τα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS- Lethal Autonomous Weapons Systems) είναι όπλα που μπορούν να ταυτοποιούν, στοχεύουν και σκοτώνουν ανθρώπους χωρίς την παρουσία ανθρώπους στο «κύκλωμα». Αυτό σημαίνει πως η τελική απόφαση χρήσης θανατηφόρας βίας δεν λαμβάνονται από άνθρωπο, αλλά από το ίδιο το αυτόνομο οπλικό σύστημα. Σημειώνεται ότι στα στρατιωτικά drones που χρησιμοποιούνται σήμερα δεν ισχύει αυτό, καθώς είναι υπό ανθρώπινο έλεγχο- ενώ ο ορισμός αυτός δεν εμπεριέχει και αυτόνομα συστήματα με δυνατότητες αυτοάμυνας απέναντι σε άλλα οπλικά συστήματα.

Πέρα από τα ηθικά ζητήματα που έχουν να κάνουν με τα LAWS, πολλοί υπέρμαχοι μιας διεθνούς απαγόρευσής τους προβληματίζονται πως θα είναι δύσκολος ο έλεγχός τους, καθώς θα είναι ευκολότερο το «χακάρισμά» τους και θα είναι πιο πιθανό να καταλήξουν στη μαύρη αγορά και να πέσουν στα χέρια κρατών- παριών, απολυταρχικών καθεστώτων, τρομοκρατών κ.α., με απρόβλεπτες αποσταθεροποιητικές συνέπειες.

Τον Δεκέμβριο του 2016, η Review Conference of the Convention on Conventional Weapons (CCW) άρχισε τις επίσημες συζητήσεις για τα LAWS στα Ηνωμένα Έθνη. Στην πιο πρόσφατη συνάντηση, τον Απρίλιο, 26 χώρες είχαν ανακοινώσει τη στήριξή τους για κάποιου είδους απαγόρευση, περιλαμβανομένης της Κίνας, στο πρότυπο των απαγορεύσεων στα βιολογικά, χημικά και διαστημικά όπλα. Η επόμενη συνάντηση για τα LAWS θα γίνει τον Αύγουστο.

Πηγή: naftemporiki.gr

About The Author

Παρατηρητής και ιστογράφος θεμάτων αμυντικής τεχνολογίας. Δεσμευμένος με τις Ελληνικές Ένοπλες Δυνάμεις και παθιασμένος με οτιδήποτε στρατιωτικό.

One Response

ΔΕΝ επιτρέπονται απαξιωτικοί και υβριστικοί χαρακτηρισμοί εναντίον στελεχών των Ενόπλων Δυνάμεων και των Σωμάτων Ασφαλείας. Υποβάλλοντας το σχόλιο σου επιβεβαιώνεις ότι έχεις διαβάσει και αποδεχθεί τους όρους χρήσης και σχολιασμού του ιστοτόπου. Η ευθύνη των σχολίων (αστική και ποινική) βαρύνει τους σχολιαστές. Οι απόψεις που εκφράζονται δεν αντιπροσωπεύουν εκείνες της "Προέλασης" και δεν πρέπει να εκλαμβάνονται ως τέτοιες.

Σχολιάστε

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.

Αρέσει σε %d bloggers: