Ισραήλ και τεχνητή νοημοσύνη κατά Χαμάς-Πώς ο αλγόριθμός επέλεξε χιλιάδες στόχους

Η επιλογή των στόχων του Ισραήλ κατά τον πόλεμο στη Λωρίδα της Γάζας βασίστηκε στην τεχνητή νοημοσύνη και σε μια βάση δεδομένων με δεκάδες χιλιάδες πιθανούς στόχους βάσει της σχέσης που είχαν με τη Χαμάς, αποκαλύπτουν ισραηλινά μέσα ενημέρωσης και ο Guardian.

Το σύστημα, που ονομάζεται Lavender («Λεβάντα»), χρησιμοποιεί αλγορίθμους μηχανικής μάθησης, δηλαδή μεθόδους στην πρωτοπορία της έρευνας για την τεχνητή νοημοσύνη, για να εντοπίσει τους στόχους.

Ωστόσο, πηγές των μυστικών υπηρεσιών αναφέρουν ότι οι αξιωματικών των Ισραηλινών Ενόπλων Δυνάμεων σκότωσαν και μεγάλο αριθμό αμάχων, ιδίως κατά τις πρώτες εβδομάδες και μήνες της σύγκρουσης. Το σύστημα λήψης αποφάσεων το «επέτρεπε» και αυτό.

Η βάση δεδομένων στέλνει τον πόλεμο σε αχαρτογράφητα νερά και σε «βαθιά» ηθικά και νομικά προβλήματα, όπως και για τη σχέση ανθρώπων και μηχανών. «Δεν θυμάμαι να έχει προηγούμενο», είπε στη βρετανική εφημερίδα Ισραηλινός αξιωματικός των πληροφοριών. «Έχασα και εγώ ανθρώπους στις 7 Οκτωβρίου. Η μηχανή το έκανε ψυχρά και αυτό το έκανε πιο εύκολο», εξήγησε.

gaza_ram

Αποφάσεις από τη μηχανή

Στο παρελθόν η «γραφειοκρατία» για την επιλογή των στόχων ήταν αργοκίνητη: η απόφαση να «ενοχοποιηθεί» ένα άτομο ή να αναγνωριστεί ως νόμιμος στόχος συζητιόταν και υπογραφόταν από νομικό σύμβουλο.

Μετά την επίθεση της 7ης Οκτωβρίου, αυτό το μοντέλο άλλαξε. Όσο ο βομβαρδισμός της Γάζας από τις IDF γινόταν εντατικότερος, οι διοικητές απαιτούσαν συνεχή ροή στόχων. «Μάς φώναζαν, 'φέρτε μας στόχους’», λέει αξιωματικός των πληροφοριών και προσθέτει ότι «τώρα θα γαμ… τη Χαμάς με κάθε κόστος».

Για αυτό και οι IDF άρχιζαν να βασίζονται όλο και περισσότεροι στο Lavender το οποίο αναπτύχθηκε από το επίλεκτο τμήμα πληροφοριών των IDF, τη Μονάδα 8200.

Τα δημοσιεύματα δεν αναφέρονται στο πώς το Lavender επιλέγει τους στόχους του ή με ποια δεδομένα. Έπειτα από τυχαία δειγματοληψία και διασταύρωση των προβλέψεών του, η 8200 κατέληξε στο συμπέρασμα ότι το Lavender είχε επιτύχει ποσοστό ακρίβειας 90%, οπότε οι IDF ενέκριναν τη μαζική χρήση του.

Φαίνεται πάντως ότι το Lavender δημιούργησε μια βάση δεδομένων δεκάδων χιλιάδων ατόμων που χαρακτηρίστηκαν χαμηλόβαθμα μέλη της στρατιωτικής πτέρυγας της Χαμάς. Το Lavender λειτουργούσε σε συνδυασμό με ένα άλλο σύστημα υποστήριξης αποφάσεων, επίσης βασισμένο στην τεχνητή νοημοσύνη, το οποίο ονομάζεται Gospel («Ευαγγέλιο»). Αυτό πρότεινε ως στόχους κτίρια και δομές ως στόχους και όχι άτομα.

Το σύστημα έφτασε κατάφερε να καταγράψει 37.000 άτομα ως πιθανούς ανθρώπινους στόχους, ωστόσο «οι αριθμοί άλλαζαν συνεχώς, επειδή εξαρτάται από το πού θέτεις τον πήχη του για το τι είναι ένας μαχητής της Χαμάς». Έτσι, αν χαλάρωναν οι παράμετροι, το σύστημα πρότεινε αστυνομικούς. Για αυτούς «θα ήταν κρίμα να σπαταλήσουμε βόμβες» καθώς «βοηθούν την κυβέρνηση της Χαμάς, αλλά δεν βάζουν σε κίνδυνο στρατιώτες».

Σημειώνεται, για ένα μέτρο μεγέθους, πριν από τις 7 Οκτωβρίου το ένοπλο τμήμα της Χαμάς υπολογιζόταν ότι είχε 25.000 με 30.000 άνδρες.

idf_gaza

Οι παράπλευρες απώλειες που «δικαιολογούσε» το σύστημα

Για κάποιες κατηγορίες στόχων, οι IDF εφάρμοζαν από τα πριν αριθμητικά όρια για τον εκτιμώμενο αριθμό των αμάχων που θα μπορούσαν να σκοτωθούν πριν εγκριθεί ένα χτύπημα. Τις πρώτες εβδομάδες του πολέμου, για παράδειγμα, τους επιτράπηκε να σκοτώνουν 15 ή 20 αμάχους κατά τη διάρκεια αεροπορικών επιδρομών εναντίον χαμηλόβαθμων μαχητών. Οι επιθέσεις σε τέτοιους στόχους γίνονταν συνήθως με τη χρήση μη κατευθυνόμενων πυρομαχικών («χαζές» βόμβες που έχουν χαμηλότερη ακρίβεια από τις «έξυπνες») τα οποία καταστρέφουν ολόκληρα σπίτια.

«Δεν θα θέλατε να σπαταλάτε ακριβές βόμβες σε μη σημαντικούς ανθρώπους», δήλωσε αξιωματικός των μυστικών υπηρεσιών. Ένας άλλος είπε ότι με τις «χαζές» βόμβες «κυριολεκτικά γκρεμίζαμε όλο το σπίτι πάνω στους ενοίκους του». Αλλά ακόμη και αν ακυρωνόταν μια επίθεση, «δεν σε νοιάζει, προχωράς αμέσως στον επόμενο στόχο. Λόγω του συστήματος, οι στόχοι δεν τελειώνουν ποτέ. Έχεις άλλους 36.000 να σε περιμένουν».

Ειδικοί λένε ακριβώς ότι η χρήση των βομβών που δεν είναι «έξυπνες» από το Ισραήλ θα μπορούσε να εξηγήσει τον εξαιρετικά υψηλό αριθμό των νεκρών στον πόλεμο, που ξεπερνά τους 32.000 Παλαιστίνιους. Φυσικά, δεν ήταν όλοι ένοπλοι της Χαμάς.

«Υπήρχε μια εντελώς ανεκτική πολιτική όσον αφορά τις απώλειες των επιχειρήσεων, μια πολιτική τόσο ανεκτική που κατά τη γνώμη μου είχε ένα χαρακτήρα εκδίκησης», είπε αξιωματούχος των μυστικών υπηρεσιών.

Όταν στοχοποιούνταν τα χαμηλόβαθμα μέλη της Χαμάς, η προτίμηση ήταν εξοντωθούν όταν πίστευαν ότι βρίσκονταν στο σπίτι τους. «Είναι πολύ πιο εύκολο να βομβαρδίσουμε το σπίτι μιας οικογένειας», εξηγούν ισραηλινές πηγές. Αυτό, φυσικά, προκαλεί και σοβαρές παράπλευρες απώλειες μεταξύ αμάχων – για αυτό και το σύστημα είχε «ανοχές» για τις απώλειες.

Σύμφωνα με τα ισραηλινά μέσα ενημέρωσης, οι IDF έκριναν ότι ήταν επιτρεπτό να σκοτωθούν περισσότεροι από 100 άμαχοι σε επιθέσεις εναντίον ενός υψηλόβαθμου αξιωματούχου της Χαμάς, όπως ενός ταξιάρχου ή ενός διοικητή τάγματος. Στην πράξη τα όρια ανεβοκατέβαιναν (έφταναν ακόμη και στα πέντε άτομα) ή καταστρατηγούνταν. Ακόμη περισσότερο: ποτέ δεν μπορείς να γνωρίζεις πόσοι άμαχοι είναι στο κτίριο την ώρα που είναι μέσα ο στόχος.

Πέρα από το σοβαρό ηθικό πρόβλημα της επιλογής στόχων από ένα μηχάνημα, χρήστες του Lavender αμφισβήτησαν πόσο νόημα είχε ο ρόλος των ανθρώπων στη διαδικασία επιλογής. «Είχα μηδενική προστιθέμενη αξία ως άνθρωπος, εκτός από το να βάζω τη “σφραγίδα” της έγκρισης», εξήγησε άλλος χρήστης.

Τι απαντούν οι Ένοπλες Δυνάμεις του Ισραήλ

Σχολιάζοντας το δημοσίευμα, οι IDF επικαλέστηκαν τη συνήθη δικαιολογία τους: οι επιχειρήσεις τους στη Λωρίδα της Γάζας πραγματοποιήθηκαν σύμφωνα με τους κανόνες αναλογικότητας του διεθνούς δικαίου. Πρόσθεσαν ότι ακόμη και οι μη έξυπνες βόμβες χρησιμοποιούνται από τους IDF με τρόπο που εξασφαλίζει υψηλό επίπεδο ακρίβειας.

Περιέγραψαν δε το Lavender ως βάση δεδομένων που χρησιμοποιείται «για τη διασταύρωση πηγών πληροφοριών» ενώ τόνισαν ότι «δεν πρόκειται για κατάλογο επιβεβαιωμένων στρατιωτικών στελεχών που είναι επιλέξιμοι για επιθέσεις».

«Οι IDF δεν χρησιμοποιούν σύστημα τεχνητής νοημοσύνης που αναγνωρίζει τρομοκράτες και δεν προσπαθούν να προβλέψουν αν ένα άτομο είναι τρομοκράτης» λένε ακόμη.

Πηγή: Πρώτο Θέμα

Δειτε Επισης

Τουλάχιστον 20 νεκροί από ισραηλινό πλήγμα στη Βηρυτό
Ο Έλον Μασκ πανηγυρίζει από... νωρίς τη νίκη του Τραμπ: Το μέλλον θα είναι καυτό
Σε κυκλώνα ενισχύθηκε η τροπική καταιγίδα Ραφαέλ που απειλεί την Κούβα
Χιλιάδες διαδηλωτές στους δρόμους του Τελ Αβίβ–«Είναι προδότης» φωνάζουν για τον Νετανιάχου
Τι είναι το «Blue Wall»-Η τελευταία ελπίδα της Κάμαλα Χάρις να κερδίσει τις εκλογές
LIVE: Τα αποτελέσματα ανά πολιτεία-Ο Τραμπ είναι ο νικητής μεταδίδει το Fox News
Επιστροφή Τραμπ ή ιστορική εκλογή Χάρις-Οι 46 Πλανητάρχες των τελευταίων 235 χρόνων
Ο Τραμπ κάνει λόγο για «μαζική νοθεία» στη Φιλαδέλφεια
Προβάδισμα στην Χάρις δείχνει το πρώτο exit poll-Η εικόνα στα swing states
Εχασε την εμπιστοσύνη του προς τον Γκάλαντ ο Νετανιάχου