Τελευταία Νέα
Διεθνή

Παγκόσμιος τρόμος για Βενεζουέλα: Οι ΗΠΑ εισέβαλαν στο Καράκας και απήγαγαν τον Maduro με όπλο Τεχνητής Νοημοσύνης

Παγκόσμιος τρόμος για Βενεζουέλα: Οι ΗΠΑ εισέβαλαν στο Καράκας και απήγαγαν τον Maduro με όπλο Τεχνητής Νοημοσύνης
Αποκαλύφθηκε, ότι το Πεντάγωνο χρησιμοποίησε το μοντέλο τεχνητής νοημοσύνης (AI) Claude κατά την επιχείρηση στη Βενεζουέλα, στην οποία σκοτώθηκαν 83 άνθρωποι
Συγκλονιστικές αποκαλύψεις έρχονται στο φως της δημοσιότητας για την πρωτοφανή απαγωγή του Nicolas Maduro από τις ΗΠΑ, αφού η κυβέρνηση Trump φέρεται να αξιοποίησε μοντέλο Τεχνητής Νοημοσύνης, προκειμένου να εισβάλει στο Καράκας και να υφαρπάξει τον Βενεζουελάνο πρόεδρο.
Ειδικότερα, αποκαλύφθηκε, ότι το Πεντάγωνο χρησιμοποίησε το μοντέλο τεχνητής νοημοσύνης (AI) Claude κατά την επιχείρηση στη Βενεζουέλα, στην οποία σκοτώθηκαν 83 άνθρωποι και ο τότε εν ενεργεία Πρόεδρος Nicolás Maduro απήχθη από τον αμερικανικό στρατό.
Αν και δεν υπάρχει σαφήνεια σχετικά με το βαθμό στον οποίο η επιχείρηση σχεδιάστηκε ή εκτελέστηκε γύρω από το μοντέλο AI, η έκθεση αποδεικνύει παρ' όλα αυτά ότι το Υπουργείο Άμυνας των ΗΠΑ χρησιμοποιεί ενεργά την τεχνητή νοημοσύνη στις υψηλού προφίλ στρατιωτικές επιχειρήσεις του.

Το Πεντάγωνο αξιοποίησε το Claude της Anthropic για την απαγωγή του Maduro

Η αμερικανική επιδρομή στη Βενεζουέλα στις 3 Ιανουαρίου περιλάμβανε βομβαρδισμούς σε ολόκληρη την πρωτεύουσα, Καράκας, και τη δολοφονία 83 ανθρώπων, σύμφωνα με το υπουργείο Άμυνας της Βενεζουέλας.
Στις 15 Φεβρουαρίου, η Wall Street Journal ανέφερε ότι το μοντέλο AI της Anthropic, Claude, χρησιμοποιήθηκε ενεργά κατά την πρωτοφανή στρατιωτική επιχείρηση των Αμερικανών.

CrSBvUlh-shutterstock_2663445441-1200x686.jpg

Είναι ενδιαφέρον ότι οι όροι χρήσης της Anthropic απαγορεύουν ρητά τη χρήση του Claude για βίαιους σκοπούς, για την ανάπτυξη όπλων ή για τη διενέργεια παρακολούθησης.
Εκπρόσωπος της Anthropic αρνήθηκε να σχολιάσει εάν ο Claude χρησιμοποιήθηκε στην επιχείρηση, αλλά δήλωσε ότι οποιαδήποτε χρήση του εργαλείου AI απαιτείται να συμμορφώνεται με τις πολιτικές χρήσης του.
Το Υπουργείο Άμυνας των ΗΠΑ δεν σχολίασε τους ισχυρισμούς.

Έντονες ανησυχίες για την εργαλειοποίηση της Τεχνητής Νοημοσύνης από στρατούς

«Δεν μπορούμε να σχολιάσουμε εάν ο Claude, ή οποιοδήποτε άλλο μοντέλο AI, χρησιμοποιήθηκε για κάποια συγκεκριμένη επιχείρηση.
Οποιαδήποτε χρήση του Claude –είτε στον ιδιωτικό τομέα είτε σε ολόκληρη την κυβέρνηση– απαιτείται να συμμορφώνεται με τις Πολιτικές Χρήσης μας, οι οποίες διέπουν τον τρόπο με τον οποίο μπορεί να αναπτυχθεί ο Claude.
Συνεργαζόμαστε στενά με τους εταίρους μας για να διασφαλίσουμε τη συμμόρφωση», δήλωσε ο εκπρόσωπος της Anthropic.

sasasdasd.JPG

Σύμφωνα με πηγές που επικαλείται η εφημερίδα, ο Claude χρησιμοποιήθηκε μέσω της συνεργασίας της Anthropic με την Palantir Technologies, έναν εργολάβο του Υπουργείου Άμυνας των ΗΠΑ και των ομοσπονδιακών υπηρεσιών επιβολής του νόμου.
Σημειώνεται ότι η ένταση μεταξύ του Υπουργείου Άμυνας των ΗΠΑ και της Anthropic σχετικά με τη χρήση των μοντέλων AI της σε πόλεμο, κατασκευή όπλων, παρακολούθηση ή προς βίαιους σκοπούς δεν είναι νέα.

Η Anthropic και Πενταγώνου για για τη χρήση AI σε μυστική επιχείρηση των ΗΠΑ

Οι ανησυχίες της Anthropic για το πώς θα μπορούσε να χρησιμοποιηθεί ο Claude από το Πεντάγωνο ώθησαν αξιωματούχους της κυβέρνησης Trump να εξετάσουν το ενδεχόμενο ακύρωσης του συμβολαίου της με την εταιρεία AI, αξίας έως και 200 εκατομμυρίων δολαρίων ΗΠΑ.
Η Anthropic ήταν ο πρώτος προγραμματιστής AI που έγινε γνωστό ότι χρησιμοποιήθηκε σε διαβαθμισμένη επιχείρηση από το Υπουργείο Άμυνας των ΗΠΑ.
Είναι πιθανό ότι και άλλα εργαλεία AI χρησιμοποιήθηκαν επίσης στις επιχειρήσεις στη Βενεζουέλα για μη διαβαθμισμένες επιχειρήσεις της CIA ή του αμερικανικού στρατού.

63d81704fc1847001955593a.webp

Τα εργαλεία AI θα μπορούσαν να χρησιμοποιηθούν για μια μεγάλη ποικιλία εργασιών, από τη σύνοψη εγγράφων έως την ανάγνωση PDF και τον έλεγχο και τη στοχοποίηση αυτόνομων drones.
Η συζήτηση σχετικά με την υπεύθυνη χρήση της AI για αμυντικούς και πολεμικούς σκοπούς απέχει πολύ από το να έχει διευθετηθεί.

AI και πολεμικές επιχειρήσεις: Η... στιγμή Oppenheimer της γενίας μας

Από τη μία πλευρά, πολλές εταιρείες AI αισθάνονται άβολα με τη χρήση των μοντέλων τους για βίαιους πολέμους.
Ταυτόχρονα, χρειάζονται τις επικερδείς συμβάσεις του υπουργείου Άμυνας για να αποκτήσουν νομιμοποίηση και να δικαιολογήσουν τις στα ύψη αποτιμήσεις τους.
Αυτή η ανησυχία δεν είναι μόνο θεωρητική. Όπως προειδοποίησε ο Αυστριακός Υπουργός Εξωτερικών Alexander Schallenberg: «Αυτή είναι η στιγμή "Oppenheimer" της γενιάς μας».
Μιλώντας σε συνδιάσκεψη στη Βιέννη για τα αυτόνομα όπλα, ο Alexander Schallenberg προειδοποίησε: «Ο πόλεμος που καθοδηγείται από την AI θα μπορούσε να εξελιχθεί σε μια ανεξέλεγκτη κούρσα εξοπλισμών. Τα αυτόνομα drones και τα συστήματα στοχοποίησης που βασίζονται σε αλγόριθμους απειλούν να μετατρέψουν τις μαζικές δολοφονίες σε μια μηχανοποιημένη διαδικασία, σχεδόν χωρίς προσπάθεια».

To Πεντάγωνο έριξε συστήματα AI στο πεδίο χωρίς τη συγκατάθεση της Anthropic

Νωρίτερα τον Ιανουάριο, ο Υπουργός Άμυνας Pete Hegseth προειδοποίησε ότι η υπηρεσία δεν θα «χρησιμοποιεί μοντέλα AI που δεν σου επιτρέπουν να διεξάγεις πολέμους».
Τα σχόλια του Pete Hegseth υπογράμμισαν τις εντάσεις μεταξύ ορισμένων εταιρειών AI και του Υπουργείου Πολέμου σχετικά με το πώς και σε ποιο βαθμό τα μοντέλα AI πρέπει να χρησιμοποιούνται για στρατιωτικούς σκοπούς.
Οι αναφορές ότι το Υπουργείο Άμυνας των ΗΠΑ ενδέχεται να χρησιμοποίησε το μοντέλο AI της Anthropic χωρίς τη ρητή έγκριση της εταιρείας αναμένεται να περιπλέξουν περαιτέρω τη συζήτηση.
Ωστόσο, η ίδια η AI έχει μακρά ιστορία χρήσης σε πολέμους και στην ανάπτυξη όπλων.

To ΑΙ στον σύγχρονο πόλεμο

Στον πόλεμο Ρωσίας-Ουκρανίας, και οι δύο πλευρές χρησιμοποιούν εντατικά drones ενισχυμένα με Τεχνητή Νοημοσύνη (AI) για την αναγνώριση στόχων, την αυτόνομη πτήση και τον συντονισμό πληγμάτων.
Τα drones ευθύνονται πλέον για το 70–80% των απωλειών σε πολλές περιοχές, με το AI να βελτιώνει δραματικά την ακρίβεια.
Το 2023, το Ισραήλ χρησιμοποίησε εργαλεία AI όπως τα Lavender και Gospel κατά τη διάρκεια του πολέμου στη Γάζα.
Ενώ το Lavender ανέλυσε εκατοντάδες χιλιάδες αρχεία κλήσεων για τον εντοπισμό πιθανών στελεχών της Hamas, το "Gospel" επιτάχυνε σημαντικά μια θανατηφόρα γραμμή παραγωγής στόχων, την οποία αξιωματούχοι παρομοίασαν με «εργοστάσιο».
«Κατά την περίοδο που υπηρέτησα στο θάλαμο επιχειρήσεων μεταξύ 2010 και 2015, χρειαζόταν μια ομάδα περίπου 20 αξιωματικών πληροφοριών που εργάζονταν για περίπου 250 ημέρες για να συγκεντρώσουν κάπου μεταξύ 200 και 250 στόχων», δήλωσε στο TIME ο Tal Mimran, λέκτορας στο Hebrew University στην Ιερουσαλήμ και πρώην νομικός σύμβουλος των IDF.
«Σήμερα, το AI θα το κάνει αυτό σε μια εβδομάδα».

Σημείο χωρίς επιστροφή για ολόκληρο τον πλανήτη

Το AI χρησιμοποιείται ήδη σε πλήθος στρατιωτικών συστημάτων: από τον εντοπισμό και την εξουδετέρωση απειλών, την καθοδήγηση επανδρωμένων και μη επανδρωμένων αεροσκαφών και οχημάτων, τη συλλογή πληροφοριών και τη διαχείριση της επιμελητείας (logistics), έως την ανάλυση εικόνων από το πεδίο της μάχης και την οικοδόμηση ολοκληρωμένων συστημάτων αντιπυραυλικής άμυνας.
Στον τομέα του AI, η τεχνολογία εξελίσσεται πολύ ταχύτερα από το ρυθμιστικό πλαίσιο.
Η χρήση του AI στον πόλεμο δεν είναι μια μακρινή, δυστοπική προοπτική, αλλά είναι ήδη εδώ, αναπτυσσόμενη σε πραγματικό χρόνο.
Αν και το AI χρησιμοποιείται σε στρατιωτικά εργαλεία εδώ και δεκαετίες, στο μέλλον θα μπορούσε να γίνει κεντρικό στοιχείο για τον εντοπισμό στόχων και τον στρατιωτικό σχεδιασμό.
Σμήνη συντονισμένων, αυτόνομων drones θα μπορούσαν να περιπολούν στους ουρανούς και τους ωκεανούς σε μόνιμη βάση, διεξάγοντας αποστολές ISR (Πληροφορίες, Επιτήρηση, Αναγνώριση) και πλήττοντας αυτόνομα στόχους.
Ο κόσμος ίσως βρίσκεται αντιμέτωπος με μια «στιγμή Oppenheimer» — μια στιγμή που περνάμε μια γραμμή που δεν είχε ξεπεραστεί ποτέ πριν, δίνοντας στις μηχανές τη δύναμη να αποφασίζουν ποιος ζει και ποιος πεθαίνει.
Η χρήση του AI στην επιχείρηση στη Βενεζουέλα ίσως είναι απλώς ένα στιγμιότυπο αυτών που πρόκειται να έρθουν στο εγγύς μέλλον...

www.bankingnews.gr

Ρoή Ειδήσεων

Σχόλια αναγνωστών

Δείτε επίσης