Πλέον με λίγα κλικς μπορεί να δημιουργηθεί ψευδές, αλλά απολύτως ρεαλιστικό περιεχόμενο, με τη βοήθεια της ΑΙ φυσικά.
Ας πούμε στο Tik Tok υπάρχει λογαριασμός όπου ένα fake Τομ Κρουζ, τραγουδάει, φορώντας μωβ ρόμπα, το “Tiny Dancer” στην (πραγματική) Paris Hilton, η οποία κρατάει στα χέρια της ένα σκυλάκι.
Αυτό το delulu θέαμα έχει προσελκύσει 5,1 εκατομμύρια followers. Και αν μη τι άλλο είναι κάτι διασκεδαστικό. Ταυτόχρονα όμως, συνιστά και μια βαθιά αλλαγή στις κοινωνίες που μέχρι πρότινος θεωρούσαν ότι οι φωτογραφίες, τα βίντεο και τα ηχητικά ντοκουμέντα είναι στοιχεία, αποτελούν αδιάσειστη απόδειξη ενός γεγονός, προσυπογράφουν ότι κάτι συνέβη στην πραγματικότητα. Παραδόξως η ΑΙ δεν δημιουργεί ένα νέο πρόβλημα, απλώς υπενθυμίζει ένα παλιό
Παλιά, οι απατεώνες που παγίδευαν αθώους ανθρώπους στο τηλέφωνο, χρειαζόταν απλώς να μιμηθούν πειστικά τις φωνές των αγαπημένων τους, για να τους πείσουν ότι είχαν κάποιο ατύχημα ή ότι διατρέχουν κίνδυνο και χρειάζονται χρήματα. Σήμερα, οι απατεώνες που παίζουν στα δάχτυλα την Τεχνητή Νοημοσύνη βάζουν τον Tom Hanks, την Taylor Swift και άλλους διάσημους να διαφημίσουν αμφιλεγόμενα προϊόντα στο διαδίκτυο, τη στιγμή που τα deep fakes πολιτικών πολλαπλασιάζονται κάθε δευτερόλεπτο που περνάει.
Ωστόσο, το βασικό, θεμελιώδες πρόβλημα εδώ δεν είναι καινούριο. Για την ακρίβεια είναι πολύ παλιό: Από την τυπογραφία μέχρι το διαδίκτυο, οι νέες τεχνολογίες συχνά διευκόλυναν τη διάδοση αναληθειών ή τη μίμηση προσώπων με κύρος που παρουσιάζονταν να λένε ή να κάνουν κάτι που δεν είπαν ή δεν έκαναν.
Συνήθως, επίσημες αρχές και απλοί χρήστες του διαδικτύου χρησιμοποιούσαν μερικές βασικές μεθόδους για να ξεχωρίσουν το ψέμα από την αλήθεια: για παράδειγμα, ένας υπερβολικά μεγάλος αριθμός ορθογραφικών λαθών υποδηλώνει ότι ένα μήνυμα ηλεκτρονικού ταχυδρομείου μπορεί να είναι επίθεση phishing. Πιο πρόσφατα, οι εικόνες ανθρώπων που δημιουργούνται από τεχνητή νοημοσύνη έχουν συχνά προδοθεί από τα παράξενα χέρια τους με τα καραμπινάτα περισσεύουμενα δάχτυλα. Επίσης, τα fake βίντεο μπορούν εύκολα να εντοπιστούν από την ασυνέπεια εικόνας – ήχου. Το στόμα αυτού που υποτίθεται ότι μιλάει δεν συγχρονίζεται με τον ήχο που ακούγεται.
Η ΑΙ δημιουργεί προηγμένης τεχνολογίας απατεώνες
Το fake περιεχόμενο εγείρει πλέον αμέσως υποψίες σε όσους γνωρίζουν τι είναι ικανή να κάνει η τεχνητή νοημοσύνη. Το ουσιαστικό πρόβλημα είναι ότι τα deep fakes γίνεται όλο και πιο δύσκολο να εντοπιστούν κάθε μέρα που περνάει. Η τεχνητή νοημοσύνη βελτιώνεται συνεχώς, καθώς τα δεδομένα με τα οποία την «ταΐζουν» σε καθημερινή βάση γίνονται όλο και πιο άφθονα, όλο και πιο εξειδικευμένα.
Θα μπορούσε το λογισμικό ανίχνευσης ψεύτικων ιστοσελίδων με τεχνητή νοημοσύνη, ενσωματωμένο στους φυλλομετρητές της αναζήτησής μας, να εντοπίζει περιεχόμενο που έχει δημιουργηθεί από υπολογιστή; Δυστυχώς όχι. Η κούρσα που έχει ξεσπάσει στο τεχνολογικό σύμπαν ανάμεσα σε εξοπλισμούς που παράγουν deep fake και εργαλείων ανίχνευσής τους ευνοεί τους… πλαστογράφους.
Οι πιθανότητες για ένα απολύτως δυστοπικό μέλλον, όπου ο ένοχος θα θριαμβεύει και ο αθώος θα καταδικάζεται αυξάνονται δραματικά μέρα με τη μέρα. Για παράδειγμα, θα είναι εξαιρετικά δύσκολο να αποφύγουμε έναν κόσμο στον οποίο οποιαδήποτε φωτογραφία ενός ατόμου μπορεί να γίνει πορνογραφική από κάποιον που χρησιμοποιεί ένα μοντέλο ανοιχτού κώδικα στο υπόγειό του, και στη συνέχεια να χρησιμοποιηθεί για εκβιασμό – μια τακτική για την οποία έχει ήδη προειδοποιήσει το FBI.