Breaking News

Ελβετική Λογική και Ρομποτικά Όπλα

 


Η αθόρυβη και ήσυχη Ελβετία είναι παγκόσμιος ηγέτης στη ρομποτική και την τεχνητή νοημοσύνη (AI), τομείς όπου οι ανακαλύψεις μπορούν να χρησιμοποιηθούν τόσο για πολιτικούς όσο και για στρατιωτικούς σκοπούς. Αυτοί οι τομείς μέχρι στιγμής βρίσκονται χωρίς διεθνή ρύθμιση για την χρησιμοποίσησή τους.

Τον Μάρτιο του 2020 η κυβέρνηση της Λιβύης χρησιμοποίησε ένα τετρακόπτερο Kargu-2 στον εμφύλιο πόλεμο, σύμφωνα με έκθεση των Ηνωμένων Εθνών. Αυτό το drone «κυνήγησε» έναν ανθρώπινο στόχο και τον εξουδετέρωσε χωρίς να του έχει δοθεί εντολή να το κάνει. Ήταν η πρώτη φορά στην ιστορία που χρησιμοποιήθηκε ένα αυτόνομο φονικό όπλο - γνωστό και ως ρομπότ δολοφόνος. 

Αυτά τα οπλικά συστήματα, που αναπτύχθηκαν με χρήση ρομποτικής και τεχνητής νοημοσύνης, δεν απαιτούν ανθρώπινη λειτουργία. Τα αυτόνομα drones, για παράδειγμα, είναι προγραμματισμένα να προσεγγίζουν μια συγκεκριμένη θέση, να επιλέγουν ένα αντικείμενο και να εξουδετερώνουν τον στόχο χωρίς καμία επαφή με έναν άνθρωπο που ελέγχει. Όπως δείχνει το περιστατικό στη Λιβύη, τα ρομπότ δολοφόνοι μπορούν επίσης να δράσουν ανεξάρτητα. Σε αντίθεση με τα όπλα μαζικής καταστροφής, δεν υπάρχουν συγκεκριμένες συνθήκες ή καθεστώτα που να καταδικάζουν ή να απαγορεύουν αυτά τα όπλα και τεχνολογίες διεθνώς.

Οι απόψεις διίστανται ως προς το εάν αυτό πρέπει να θεωρηθεί ως παράλειψη. Το ελβετικό υπουργείο Εξωτερικών ανακοίνωσε ότι το διεθνές ανθρωπιστικό δίκαιο ισχύει για όλα τα όπλα και τις τεχνολογίες, συμπεριλαμβανομένων των νέων, όπως τα αυτόνομα οπλικά συστήματα. «Έτσι δεν υπάρχει κενό για τη χρήση της ρομποτικής, της τεχνητής νοημοσύνης και άλλων ψηφιακών τεχνολογιών σε ένοπλες συγκρούσεις», ανέφερε.

Δεν συμφωνούν όμως όλοι στη διεθνή κοινότητα. «Μερικά κράτη πιστεύουν ότι η υπάρχουσα νομοθεσία είναι ανεπαρκής», δήλωσε η Laura Bruun, εμπειρογνώμονας σε νέες τεχνολογίες στρατιωτικής και ασφάλειας στο Διεθνές Ινστιτούτο Ερευνών για την Ειρήνη της Στοκχόλμης. Ενώ το διεθνές ανθρωπιστικό δίκαιο καλύπτει όλους τους τύπους όπλων, η χρήση στρατιωτικών τεχνολογιών που ελέγχονται από την τεχνητή νοημοσύνη δεν ρυθμίζεται ρητά, είπε. «Αυτό δημιουργεί ένα κανονιστικό κενό, ανάλογα με το πώς ερμηνεύεται ο νόμος».

Εγγραφείτε στο κανάλι μας στο YouTube

Οι κανόνες της ΕΕ ή της UNESCO για την ηθική χρήση της τεχνητής νοημοσύνης αναφέρονται σε μη στρατιωτικές εφαρμογές, όχι σε στρατιωτικές, είπε η κυρία Bruun. Καθώς οι νέες τεχνολογίες όπως η τεχνητή νοημοσύνη προχωρούν, γίνεται όλο και πιο δύσκολο να γίνει διάκριση για την τελική χρήση μεταξύ του πολιτικού και στρατιωτικού δυναμικού μιας ανάπτυξης. Το γεγονός ότι αυτές οι τεχνολογίες είναι πολύ εύκολο να διαδοθούν – το λογισμικό τεχνητής νοημοσύνης μπορεί ακόμη και να διανεμηθεί μέσω email ή ανοιχτού κώδικα – περιπλέκει τις ρυθμιστικές διαδικασίες και τις διαδικασίες παρακολούθησης.

"Φυσικά, το διεθνές ανθρωπιστικό δίκαιο ισχύει για τη χρήση τέτοιων όπλων, αλλά απαιτούνται διεθνείς κανονισμοί που λαμβάνουν υπόψη αυτούς τους νέους τύπους τεχνολογίας", δήλωσε η Elisabeth Hoffberger-Pippan, ερευνήτρια ασφαλείας και ειδικός διεθνούς δικαίου στο Γερμανικό Ινστιτούτο Διεθνών και Υποθέσεις Ασφαλείας στο Βερολίνο.

Αδύναμες οι προοπτικές για τις συνομιλίες της Γενεύης

Ο ΟΗΕ διαπραγματεύεται την απαγόρευση των αυτόνομων οπλικών συστημάτων στη Γενεύη από το 2017 μέχρι και σήμερα χωρίς απτά αποτελέσματα. Η Ελβετία υποστηρίζει αυτές τις διαπραγματεύσεις κατ' αρχήν, επειδή, αν και απορρίπτει την πλήρη απαγόρευση, είναι υπέρ των κανονισμών, των ελέγχων και των περιορισμών. Πέρυσι η ελβετική αποστολή στον ΟΗΕ διατύπωσε μια πρόταση να ρυθμίσει τα φονικά αυτόνομα όπλα, προσχωρώντας στην ομάδα χωρών που πιέζουν για νομικά δεσμευτικά μέτρα κατά των ρομποτικών όπλων και παρεμφερών εφαρμογών.

Αλλά δεν υπήρξε καμία πρόοδος, αφού η Ρωσία απορρίπτει σχεδόν κάθε πρόταση ρύθμισης. Η Ρωσία μποϊκόταρε ακόμη και τον πιο πρόσφατο γύρο διαπραγματεύσεων τον Μάρτιο λόγω του συνεχιζόμενου πολέμου στην Ουκρανία. Αλλά το Ισραήλ, οι ΗΠΑ, η Τουρκία, το Ηνωμένο Βασίλειο και η Νότια Κορέα αντιτίθενται επίσης σε κάθε δεσμευτικό κανονισμό των αυτόνομων οπλικών συστημάτων, καθώς πιστεύουν ότι το διεθνές ανθρωπιστικό δίκαιο παρέχει ένα κατάλληλο πλαίσιο για μια υπεύθυνη προσέγγιση αυτών των όπλων.

Οι ειδικοί σε αυτούς τους τομείς όπλων, δεν περιμένουν μεγάλη πρόοδο σε συμφωνίες ή και συνθήκες που θα μπορούσαν να δεσμεύσουν τις χώρες για την χρησιμοποίηση αυτών των νέων τεχνολογιών σε όπλα που θα μπορούν να δρούν ανεξέλεγκτα και χωρίς την ανθρώπινη παρέμβαση να εκμηδενίζουν αδιάκριτα ότι  επιλέξουν, έστω και σε συνθήκες μάχης. Πίσω από τις κλειστές πόρτες, τα κράτη μιλούν ήδη για αποτυχία των διαπραγματεύσεων της Γενεύης. Το Ελβετικό υπουργείο Εξωτερικών ανέφερε ότι προς το παρόν δεν υπάρχει συμφωνία μεταξύ των κρατών για ένα διεθνές μέσο που θα μπορούσε με κάποιο τρόπο να ελέγξει την χρήση των ρομποτικών όπλων.

«Είναι πιθανό ότι δεν θα θέλουν όλα τα κράτη να συνεχίσουν να υποστηρίζουν τη διαδικασία της Γενεύης γιατί απλά δεν αξίζει τον κόπο είναι τόσο κυνικό μα τόσο αληθινό», είπε ο Hoffberger-Pippan. Αναμένει ότι θα αναζητηθεί ένα εναλλακτικό φόρουμ για διαπραγματεύσεις σχετικά με κανόνες για αυτόνομα οπλικά συστήματα.

Γιατί τα κράτη αντιτίθενται σε μια απαγόρευση

Οι λόγοι που η Ελβετία, όπως και τα περισσότερα κράτη, δεν επιδιώκει την πλήρη απαγόρευση των αυτόνομων όπλων είναι τόσο οικονομικοί όσο και διπλωματικοί, σύμφωνα με τον Stephen Herzog του Κέντρου Μελετών Ασφαλείας. Η Ελβετία φοβάται τις επιπτώσεις στις εξαγωγές της. Στους τομείς της ρομποτικής και της τεχνητής νοημοσύνης, η Ελβετία είναι μια από τις κορυφαίες χώρες στον κόσμο.

Ο Hoffberger-Pippan είπε ότι αυτός ο φόβος είναι μόνο εν μέρει δικαιολογημένος. Αυτή τη στιγμή, είπε, οι συζητήσεις επικεντρώνονται κυρίως στο διεθνές δίκαιο για τη ρύθμιση της χρήσης αυτόνομων οπλικών συστημάτων και όχι, μέχρι στιγμής, στους ελέγχους των εξαγωγών. Από την άλλη πλευρά, επεσήμανε, πολλές χώρες φοβούνται ότι μια πλήρης απαγόρευση θα μπορούσε να δυσχεράνει την έρευνα σε αυτόν τον τομέα. 

«Οι επενδυτές θα αναρωτιόντουσαν γιατί θα έπρεπε να διαθέσουν χρηματοδότηση, εάν σε κάθε περίπτωση δεν θα επιτρέπεται να αναπτυχθούν πιθανές νέες εφαρμογές αλλά και περαιτέρω εξέλιξη των όπλων αυτών» είπε. Αυτή είναι μια πρόκληση ιδιαίτερα για τις ΗΠΑ, αλλά και για πολλές άλλες μεγάλες στρατιωτικές δυνάμεις με στρατικοβιομηχανική τεχνολογία αιχμής όπως είναι και η Ρωσία ή η Κίνα.

Η άποψη των ΗΠΑ είναι ότι τα αυτόνομα όπλα θα πρέπει να δοκιμάζονται πριν απαγορευτούν. Αυτό θα επέτρεπε να εξακριβωθεί εάν μπορούν να αξιοποιηθούν ανάλογα με την φονική-καταστρεπτική τους δυνατότητα. Ορισμένα κράτη πιστεύουν ότι τα αυτόνομα όπλα φέρνουν ακόμη και πλεονεκτήματα – τουλάχιστον στη χώρα που τα χρησιμοποιεί. Για παράδειγμα, οι θάνατοι στρατιωτών μπορούν να αποφευχθούν και να εξοικονομηθούν δαπάνες προσωπικού για την χώρα που τα χρησιμοποιεί.

Μη στρατιωτικά drones στην Ουκρανία

Το 2017 η ελβετική κυβέρνηση αποφάσισε να αντιταχθεί στην πλήρη απαγόρευση για παρόμοιους λόγους, δηλώνοντας ότι θα μπορούσε να σημαίνει την απαγόρευση δυνητικά χρήσιμων συστημάτων που θα μπορούσαν, για παράδειγμα, να αποφύγουν παράπλευρες ζημιές στον πληθυσμό. Για το λόγο αυτό, λέει η Laura Bruun, οι συζητήσεις για τη ρύθμιση των πολιτικών και στρατιωτικών εφαρμογών θα πρέπει να διεξάγονται παράλληλα. 

«Η αναγνώριση ότι η διάκριση μεταξύ των δύο χρήσεων γίνεται όλο και πιο θολή θα ήταν ένα πρώτο βήμα προς τον έλεγχο της τεχνολογίας», είπε.

Ο Hoffberger-Pippan παρατηρεί μια αλλαγή παραδείγματος με τα drones: ενώ παλαιότερα θεωρούνταν πολύ επικριτικά, κερδίζουν ολοένα και μεγαλύτερη αποδοχή διεθνώς, ακόμη και μεταξύ του πληθυσμού. Στον πόλεμο στην Ουκρανία, για παράδειγμα, τα ουκρανικά στρατεύματα έχουν χρησιμοποιήσει πολιτικά drones σε μεγάλη κλίμακα εκτός από στρατιωτικά drones, αποκτώντας ένα απροσδόκητο πλεονέκτημα έναντι της Ρωσίας.  

Αν και η χρήση drones για την καταπολέμηση της τρομοκρατίας παραμένει ένα εξαιρετικά προβληματικό νομικό και ηθικό ζήτημα, και ο ρωσικός επιθετικός πόλεμος στην Ουκρανία είναι συγκρίσιμος μόνο σε περιορισμένο βαθμό σχετικά με αυτού του είδους τα οπλικά συστήματα, αυτό το παράδειγμα δείχνει ότι η χρήση drone δεν είναι αποκλειστικά κακή επιλογή. Ίσως υπάρχουν επίσης λογικές χρήσεις για οπλικά συστήματα που λειτουργούν με υψηλό βαθμό αυτονομίας. 

«Οι μεταβαλλόμενοι καιροί μας εγκαινιάζουν έναν εκσυγχρονισμό του στρατού και, μαζί με αυτό, περισσότερη αποδοχή για την τεχνολογική καινοτομία», δήλωσε ο Hoffberger-Pippan. Άρα είναι πολύ πιθανό να αλλάξει και η κοινή γνώμη για τα αυτόνομα όπλα.


Πηγή: Intl News


ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ  Ρωσία και Ισραήλ Πάγος Ξανά

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ Οι Ρώσοι Στο Κόρνερ Τώρα Πάμε Ασία


                              Εκπομπή με τον Αντώνη Παπαντωνίου Ναύαρχο ε.α. - Νομικό
                                          


                                        Εκπομπή με Γιώργο Κανελλάκη και Κώστα Κανάκα

                                                    Εκπομπή με Γιώργο Παπαγεωργίου