Η Τεχνητή Νοημοσύνη ως όπλο μαζικών δολοφονιών στη Γάζα και στο Ιράν
[ ARTI news / Κόσμος / 03.03.26 ]Η θέση ότι στη Γάζα και στο Ιράν χρησιμοποιείται η Τεχνητή Νοημοσύνη ως όπλο μαζικών δολοφονιών επιβεβαιώνεται.
Είναι γνωστό ότι το Ισραήλ χρησιμοποιεί προηγμένα συστήματα Τεχνητής Νοημοσύνης (AI), όπως το "Lavender", και δίκτυα αναγνώρισης προσώπου για παρακολούθηση σε πραγματικό χρόνο και μαζική επιτήρηση στη Γάζα. Είναι γνωστή επίσης η χρήση της πλατφόρμας αποθήκευσης Azure της Microsoft με σκοπό τη μαζική παρακολούθηση επικοινωνιών και την επιλογή στόχων. Ανάμεσα στις τεχνολογίες αυτές είναι και το οπλικό σύστημα τεχνητής νοημοσύνης που ονομάζεται «Habsora» («Το Ευαγγέλιο») το οποίο μπορεί να αναγνωρίσει γρήγορα και αυτόματα στόχους, πολύ πιο γρήγορα από ότι παλαιότερες μέθοδοι. Εάν σε προηγούμενους βομβαρδισμούς, ο ισραηλινός στρατός επέλεγε χειροκίνητα 50 στόχους την ημέρα, σήμερα το νέο σύστημα επιτυγχάνει στο Ιράν 900 στόχους μέσα σε 12 ώρες.
Ό,τι αναπτύχθηκε στη Γάζα, τώρα χρησιμοποιείται σε ευρύτερη κλίμακα στο Ιράν, καθώς έχουμε για πρώτη φορά την ευρεία χρήση εργαλείων τεχνητής νοημοσύνης για την πραγματοποίηση βομβαρδισμών ταχύτερων από «την ταχύτητα της σκέψης». Αυτό που μπορεί να χρειαζόταν μέρες ή εβδομάδες στους παλαιούς πολέμους, τώρα γίνεται σε μια μέρα ταυτόχρονα.
«Αυτή είναι η επόμενη εποχή στρατιωτικής στρατηγικής και στρατιωτικής τεχνολογίας», δήλωσε ο David Leslie, καθηγητής στο Πανεπιστήμιο Queen Mary του Λονδίνου, προειδοποιώντας ότι η εξάρτηση από την τεχνητή νοημοσύνη μπορεί να οδηγήσει στην αποκοπή των ανθρώπων που λαμβάνουν μια απόφαση για επίθεση από τις συνέπειές της, επειδή η προσπάθεια να την σκεφτούν έχει επαφεθεί πλέον στη «μηχανή».
Ο έλεγχος μέσω του ανθρώπινου παράγοντα δεν θα υπάρχει με συνέπεια να έχουμε εκτός από τις στοχευμένες δολοφονίες, όπως αυτές της ηγεσίας του Ιράν, και «μαζικές δολοφονίες», όπως των 165 ανθρώπων, πολλά από τα οποία παιδιά, που σκοτώθηκαν σε πυραυλική επίθεση που έπληξε ένα σχολείο στο νότιο Ιράν και χαρακτηρίστηκαν ως «παράπλευρες απώλειες». Η τεχνητή νοημοσύνη στην στρατιωτική της χρήση περιλαμβάνει κυνικά και τις «παράπλευρες απώλειες».
Στο Ιράν χρησιμοποιείται από τον αμερικανικό στρατό το μοντέλο τεχνητής νοημοσύνης της Anthropic, Claude (σ.σ. η απόσυρση και η αντικατάστασή του με το OpenAI θα γίνει σταδιακά). Το Claude έγινε μέρος ενός συστήματος που αναπτύχθηκε από την εταιρεία πολεμικής τεχνολογίας Palantir σε συνεργασία με το Πεντάγωνο.
Ακαδημαϊκοί που μελετούν τον τομέα λένε ότι η Τεχνητή Νοημοσύνη εξαλείφει τον χρόνο σχεδιασμού (και ελέγχου) που απαιτείται για σύνθετες επιθέσεις - ένα φαινόμενο γνωστό ως «συμπίεση αποφάσεων», το οποίο φοβούνται ότι θα μπορούσε να οδηγήσει σε εξάλειψη του ελέγχου από τον ανθρώπινο παράγοντα καθώς οι στρατιωτικοί απλώς θα εγκρίνουν αυτοματοποιημένα σχέδια επιθέσεων (δηλαδή λογισμικά και αλγόριθμους).
Μαζική παρακολούθηση στόχων, μαζική εξόντωση, στοχευμένες και μαζικές δολοφονίες, η Τεχνητή Νοημοσύνη είναι ένα νέο όπλο το οποίο στα χέρια των σύγχρονων πλανητικών και περιφερειακών γκάγκστερ θα σκορπίσει καταστροφή και μαφιόζικο έλεγχο…

