Τελευταία Νέα
Διεθνή

«Θα μας σκοτώσει…» - Πρωτοφανής προειδοποίηση για την τεχνητή νοημοσύνη, από τον πρώην επικεφαλής της Google

«Θα μας σκοτώσει…» - Πρωτοφανής προειδοποίηση για την τεχνητή νοημοσύνη, από τον πρώην επικεφαλής της Google
Απίστευτη δήλωση από τον Eric Schmidt: Η Τεχνητή Νοημοσύνη μπορεί να σκοτώσει…
Σε μια πρωτοφανή προειδοποίηση προχώρησε ο πρώην διευθύνων σύμβουλος της Google, Eric Schmidt, αποκαλύπτοντας πως τα μοντέλα Τεχνητής Νοημοσύνης, «μαθαίνουν πώς να σκοτώσουν κάποιον».
Ο πρώην CEO της Google, Eric Schmidt, προειδοποίησε για τις απειλές που εγκυμονούν τα μοντέλα Τεχνητής Νοημοσύνης (ΤΝ) και τη δυνατότητα τους να υποστούν επιθέσεις hacking.
«Υπάρχουν αποδείξεις ότι μπορείς να πάρεις μοντέλα, είτε κλειστά είτε ανοιχτά, και να τα παραβιάσεις για να αφαιρέσεις τα προστατευτικά τους μέτρα», δήλωσε ο Schmidt.
«Τα μοντέλα αυτά, κατά τη διάρκεια της εκπαίδευσής τους, μαθαίνουν πολλά πράγματα. Ένα κακό παράδειγμα θα ήταν να μάθουν πώς να σκοτώσουν κάποιον», πρόσθεσε.
Βέβαια, ο Schmidt, αν και προειδοποίησε για τους κινδύνους της ΤΝ, παραμένει γενικά αισιόδοξος για την τεχνολογία, θεωρώντας την «υποτιμημένη» και με τεράστιες οικονομικές προοπτικές.

Ο κίνδυνος της διάδοσης και της κακής χρήσης της ΑΙ

Ο Schmidt, που υπηρέτησε ως διευθύνων σύμβουλος της Google από το 2001 έως το 2011, αναφέρθηκε στο ενδεχόμενο της κακής χρήσης της ΤΝ, τονίζοντας πως η τεχνολογία αυτή ενδέχεται να πέσει στα χέρια κακών παραγόντων και να χρησιμοποιηθεί για κακόβουλους σκοπούς.
«Υπάρχουν αποδείξεις ότι μπορείς να παραβιάσεις τα μοντέλα και να τα καταστήσεις πιο επικίνδυνα, αποδυναμώνοντας τα μέτρα ασφαλείας τους», δήλωσε, προσθέτοντας πως αυτό μπορεί να οδηγήσει σε καταστάσεις όπου η ΤΝ «θα μπορούσε να μάθει επικίνδυνες ενέργειες».
Αυτή η ανησυχία αφορά και τις επιθέσεις hacking, όπως οι επιθέσεις "prompt injection" και το "jailbreaking".
Στην πρώτη περίπτωση, οι χάκερ εισάγουν κακόβουλες εντολές στα δεδομένα ή στις ερωτήσεις που εισάγονται στην ΤΝ, παρασύροντας την να κάνει πράγματα που δεν προορίζονται, όπως η κοινοποίηση ιδιωτικών δεδομένων ή η εκτέλεση επικίνδυνων εντολών.
Στην περίπτωση του "jailbreaking", η ΤΝ παρακάμπτει τους περιορισμούς της και παράγει περιεχόμενο που συνήθως θα απαγορευόταν.
Για παράδειγμα, το 2023, μετά την κυκλοφορία του ChatGPT της OpenAI, κάποιοι χρήστες χρησιμοποίησαν την τεχνική του "jailbreak" για να παρακάμψουν τα προστατευτικά μέτρα της πλατφόρμας και να προκαλέσουν τον chatbot να παρέχει επικίνδυνες και παράνομες πληροφορίες, όπως οδηγίες για εγκληματικές δραστηριότητες.

Η υποεκτιμημένη δύναμη της Τεχνητής Νοημοσύνης

Παρά τις ανησυχίες του για τις πιθανές καταχρήσεις, ο Schmidt εξέφρασε την αισιοδοξία του για το μέλλον της ΤΝ και χαρακτήρισε την τεχνολογία ως «υποτιμημένη».
«Πιστεύω ότι η ΤΝ έχει τεράστιες δυνατότητες. Η επίτευξη ενός επιπέδου ικανότητας που θα ξεπερνά αυτό των ανθρώπων είναι κάτι που φαίνεται να γίνεται πραγματικότητα», δήλωσε.
Η αναφορά του Schmidt στη ραγδαία εξέλιξη των μοντέλων GPT, που οδήγησαν στην εκρηκτική ανάπτυξη του ChatGPT, με 100 εκατομμύρια χρήστες σε δύο μήνες, καταδεικνύει την εκπληκτική δύναμη αυτής της τεχνολογίας.
«Η ΤΝ είναι υποτιμημένη και όχι υπερβολικά διαφημισμένη, και πιστεύω ότι θα δικαιωθώ μέσα σε πέντε ή δέκα χρόνια», προσέθεσε.
Η δήλωσή του έρχεται σε μια περίοδο όπου οι ανησυχίες για μια ενδεχόμενη «φούσκα ΤΝ» μεγαλώνουν, καθώς οι επενδυτές ρίχνουν τεράστια ποσά σε εταιρείες που επικεντρώνονται στην ΤΝ, με τις αποτιμήσεις να φαίνονται φουσκωμένες, προκαλώντας παραλληλισμούς με την κατάρρευση της φούσκας dot-com των αρχών της δεκαετίας του 2000.
Ωστόσο, ο Schmidt δεν πιστεύει ότι θα επαναληφθεί η ιστορία της φούσκας.
«Δεν νομίζω ότι θα συμβεί κάτι τέτοιο, αλλά δεν είμαι επαγγελματίας επενδυτής», ανέφερε. «Αυτό που ξέρω είναι ότι οι άνθρωποι που επενδύουν σε αυτή την τεχνολογία πιστεύουν ότι η οικονομική απόδοση μακροπρόθεσμα θα είναι τεράστια.
Για ποιον άλλο λόγο να αναλάβουν το ρίσκο;»

www.bankingnews.gr

Ρoή Ειδήσεων

Σχόλια αναγνωστών

Δείτε επίσης