Το σύστημα, που ονομάζεται Lavender («Λεβάντα»), χρησιμοποιεί αλγορίθμους μηχανικής μάθησης, δηλαδή μεθόδους στην πρωτοπορία της έρευνας για την τεχνητή νοημοσύνη, για να εντοπίσει τους στόχους.
Ωστόσο, πηγές των μυστικών υπηρεσιών αναφέρουν ότι οι αξιωματικών των Ισραηλινών Ενόπλων Δυνάμεων σκότωσαν και μεγάλο αριθμό αμάχων, ιδίως κατά τις πρώτες εβδομάδες και μήνες της σύγκρουσης. Το σύστημα λήψης αποφάσεων το «επέτρεπε» και αυτό.
Η βάση δεδομένων στέλνει τον πόλεμο σε αχαρτογράφητα νερά και σε «βαθιά» ηθικά και νομικά προβλήματα, όπως και για τη σχέση ανθρώπων και μηχανών. «Δεν θυμάμαι να έχει προηγούμενο», είπε στη βρετανική εφημερίδα Ισραηλινός αξιωματικός των πληροφοριών. «Έχασα και εγώ ανθρώπους στις 7 Οκτωβρίου. Η μηχανή το έκανε ψυχρά και αυτό το έκανε πιο εύκολο», εξήγησε.
Αποφάσεις από τη μηχανή
Στο παρελθόν η «γραφειοκρατία» για την επιλογή των στόχων ήταν αργοκίνητη: η απόφαση να «ενοχοποιηθεί» ένα άτομο ή να αναγνωριστεί ως νόμιμος στόχος συζητιόταν και υπογραφόταν από νομικό σύμβουλο.
Μετά την επίθεση της 7ης Οκτωβρίου, αυτό το μοντέλο άλλαξε. Όσο ο βομβαρδισμός της Γάζας από τις IDF γινόταν εντατικότερος, οι διοικητές απαιτούσαν συνεχή ροή στόχων. «Μάς φώναζαν, ‘φέρτε μας στόχους’», λέει αξιωματικός των πληροφοριών και προσθέτει ότι «τώρα θα γαμ… τη Χαμάς με κάθε κόστος».
Για αυτό και οι IDF άρχιζαν να βασίζονται όλο και περισσότεροι στο Lavender το οποίο αναπτύχθηκε από το επίλεκτο τμήμα πληροφοριών των IDF, τη Μονάδα 8200.