Τεχνολογία|10.04.2023 19:55

«Πόλεμος» του ChatGPT με την ΕΕ: Η τεχνολογία αιχμής που ενοχλεί τις κυβερνήσεις και ο κίνδυνος για τα προσωπικά δεδομένα

Newsroom

Διχασμό στην Ευρώπη φαίνεται πως έχει προκαλέσει το ChatGPT το οποίο δείχνει να έχει προετοιμαστεί για μια δύσκολη «μάχη» με τους υπεύθυνους για τη διασφάλιση του απορρήτου.

Το chatbot είναι η πιο δημοφιλής καινοτομία της τεχνολογίας τεχνητής νοημοσύνης, αλλά τον περασμένο μήνα υπέστη προσωρινή απαγόρευση στην Ιταλία με την αιτιολογία ότι θα μπορούσε να παραβιάσει το ευρωπαϊκό εγχειρίδιο κανόνων προστασίας της ιδιωτικής ζωής, τον Γενικό Κανονισμό για την Προστασία Δεδομένων (GDPR).

Η τεχνολογία αιχμής που ενοχλεί τις κυβερνήσεις

Η ιταλική απαγόρευση είναι μόνο η αρχή των προβλημάτων του ChatGPT, καθώς σχετίζεται με υποθέσεις προστασίας της ιδιωτικής ζωής σε όλο το μπλοκ και τρέχει τεχνολογία αιχμής που ενοχλεί τις κυβερνήσεις για κινδύνους που κυμαίνονται από την προστασία των δεδομένων έως την παραπληροφόρηση, το έγκλημα στον κυβερνοχώρο, την απάτη και την εξαπάτηση στα σχολικά τεστ.

Η OpenAI, ο οργανισμός που δημιούργησε το ChatGPT, βαδίζει με έναν στόχο στην πλάτη της: Δεν έχει δημιουργήσει τοπική έδρα σε μία από τις 27 χώρες της Ευρωπαϊκής Ένωσης, πράγμα που σημαίνει ότι η αρχή προστασίας δεδομένων οποιασδήποτε χώρας μέλους μπορεί να ξεκινήσει νέες έρευνες και να επιβάλει απαγορεύσεις.

Θυμίζουμε ότι η Google αντιμετώπισε πρόστιμο ύψους 50 εκατομμυρίων ευρώ για παραβίαση του Γενικού Κανονισμού για την Προστασία Δεδομένων (ΓΚΠΔ) στη Γαλλία, το οποίο επιβλήθηκε πριν ο αμερικανικός τεχνολογικός γίγαντας συγκεντρώσει επίσημα την ευρωπαϊκή νομική του οργάνωση στην Ιρλανδία. Η TikTok, επίσης, είχε αντιμετωπίσει αρκετές έρευνες για την προστασία των προσωπικών δεδομένων και πρόστιμα από τις ολλανδικές, ιταλικές και γαλλικές αρχές πριν εγκατασταθεί νομικά στην Ιρλανδία το 2021.

Οι ευρωπαϊκές ρυθμιστικές αρχές δεδομένων εξετάζουν τα επόμενα βήματά τους για να εξετάσουν την εικαζόμενη κατάχρηση, όπως οι Ιταλοί συνάδελφοί τους.

Η ιρλανδική Επιτροπή Προστασίας Δεδομένων δήλωσε ότι «θα συντονιστεί με όλες τις αρχές προστασίας δεδομένων της ΕΕ σε σχέση με το θέμα αυτό», σύμφωνα με τον εκπρόσωπο Graham Doyle. Η βελγική αρχή προστασίας δεδομένων δήλωσε επίσης ότι οι πιθανές παραβιάσεις της ChatGPT «θα πρέπει να συζητηθούν σε ευρωπαϊκό επίπεδο».

Η γαλλική αρχή προστασίας δεδομένων CNIL έλαβε τουλάχιστον δύο καταγγελίες κατά της ChatGPT, για παραβιάσεις της ιδιωτικής ζωής, μεταξύ άλλων και του ΓΚΠΔ, ανέφερε η L'Informe.

Στη Νορβηγία, «δεν έχουμε ξεκινήσει μέχρι σήμερα έρευνα για την ChatGPT, αλλά δεν αποκλείουμε τίποτα για το μέλλον», δήλωσε ο Tobias Judin, επικεφαλής των διεθνών εργασιών της ρυθμιστικής αρχής προστασίας δεδομένων της χώρας Datatilsynet.

Ενώ η OpenAI αρνήθηκε ότι παραβίασε τους νόμους της ΕΕ για την προστασία της ιδιωτικής ζωής, ο διευθύνων σύμβουλος της εταιρείας Σαμ Άλτμαν δήλωσε στο Twitter ότι η εταιρεία του παραπέμπει στην «ιταλική κυβέρνηση» για την απαγόρευση - προφανώς συγχέοντας την ανεξάρτητη ρυθμιστική αρχή της χώρας με την κυβέρνηση.

«Η Ιταλία είναι μία από τις αγαπημένες μου χώρες και ανυπομονώ να την επισκεφθώ ξανά σύντομα», δήλωσε ο Altman.

Η ιταλική αρχή προστασίας δεδομένων δήλωσε στις 6 Απριλίου ότι η OpenAI ήταν ανοιχτή στην αντιμετώπιση πιθανής παραβίασης της νομοθεσίας της ΕΕ για την προστασία της ιδιωτικής ζωής, μετά από βιντεοκλήση με στελέχη της εταιρείας.

Νόμοι που πρέπει να τηρούνται

Σύμφωνα με το Politico, δεν είναι μόνο η προστασία της ιδιωτικής ζωής που προκαλεί ανησυχίες για τα συστήματα τεχνητής νοημοσύνης όπως το ChatGPT.

Στα τέλη Μαρτίου, ένας νεαρός Βέλγος αυτοκτόνησε μετά από εβδομάδες συνομιλιών με ένα chatbot με τεχνητή νοημοσύνη που ονομαζόταν Eliza, ανέφερε η βελγική εφημερίδα La Libre. Τον περασμένο μήνα, ο μεγιστάνας της τεχνολογίας Elon Musk μαζί με χιλιάδες εμπειρογνώμονες της ΤΝ ζήτησε να σταματήσει η ανάπτυξη του ChatGPT λόγω «σημαντικών κινδύνων για την ανθρωπότητα».

Οι ομάδες υπεράσπισης ακολούθησαν το παράδειγμα. Στις ΗΠΑ, το Κέντρο για την Τεχνητή Νοημοσύνη και την Ψηφιακή Πολιτική κάλεσε την αμερικανική Ομοσπονδιακή Επιτροπή Εμπορίου να ερευνήσει την OpenAI και να εμποδίσει περαιτέρω κυκλοφορίες του bot της. Στις Βρυξέλλες, το παρατηρητήριο καταναλωτών BEUC παρακάλεσε τις ευρωπαϊκές και εθνικές ρυθμιστικές αρχές να ερευνήσουν το ChatGPT, προειδοποιώντας ότι το επερχόμενο εγχειρίδιο κανόνων τεχνητής νοημοσύνης της ΕΕ μπορεί να έρθει πολύ αργά για να αποτρέψει τη ζημιά.

Οι Ευρωπαίοι νομοθέτες διαπραγματεύονται επίσης νομικές προστατευτικές μπάρες για την τεχνολογία στο πλαίσιο ενός σχεδίου νόμου της ΕΕ για την τεχνητή νοημοσύνη.

Αλλά η έλλειψη νομοθεσίας για την τεχνητή νοημοσύνη έχει ενθαρρύνει τις ρυθμιστικές αρχές προστασίας δεδομένων να παρέμβουν

«Οι ρυθμιστικές αρχές προστασίας δεδομένων συνειδητοποιούν σιγά σιγά ότι είναι ρυθμιστικές αρχές της τεχνητής νοημοσύνης», δήλωσε η Gabriela Zanfir-Fortuna, της δεξαμενής σκέψης Future of Privacy Forum.

Οι ρυθμιστικές αρχές προστασίας της ιδιωτικής ζωής επιβάλλουν τον ΓΚΠΔ, συμπεριλαμβανομένων των κανόνων του σχετικά με τη συλλογή δεδομένων και την προστασία των χρηστών από την αυτοματοποιημένη λήψη αποφάσεων. Εταιρείες όπως η OpenAI πρέπει να έχουν νομική βάση για τη συλλογή και τη χρήση προσωπικών δεδομένων, να είναι διαφανείς σχετικά με τον τρόπο που χρησιμοποιούν τα δεδομένα των ανθρώπων, να διατηρούν τα προσωπικά δεδομένα ακριβή και να δίνουν στους ανθρώπους δικαίωμα διόρθωσης.

Η OpenAI δεν αποκάλυψε ποτέ ποιο σύνολο δεδομένων χρησιμοποίησε για να εκπαιδεύσει το μοντέλο τεχνητής νοημοσύνης που διέπει το chatbot. Ακόμη και οι ερευνητές της Microsoft, η οποία είναι ο κύριος επενδυτής της OpenAI, δήλωσαν σε πρόσφατο έγγραφο ότι «δεν είχαν πρόσβαση στις πλήρεις λεπτομέρειες των τεράστιων δεδομένων εκπαίδευσης (του ChatGPT)»

Η εταιρεία αναγνώρισης προσώπου Clearview AI είχε προηγουμένως τιμωρηθεί με πρόστιμο και διατάχθηκε από τις ρυθμιστικές αρχές προστασίας της ιδιωτικής ζωής να διαγράψει τις φωτογραφίες Ιταλών, Γάλλων και Βρετανών που είχε συλλέξει στο διαδίκτυο για να δημιουργήσει τον αλγόριθμό της, επειδή δεν είχε νομική βάση για να το πράξει.

Το γεγονός ότι η ChatGPT υπέστη παραβίαση δεδομένων και εξέθεσε τις συνομιλίες των χρηστών και τις πληροφορίες πληρωμής των χρηστών της τον Μάρτιο προσθέτει μόνο στα προβλήματά της.

Η ιταλική απόφαση να σταματήσει η ChatGPT εν τη γενέσει της είναι «ένα κάλεσμα αφύπνισης», δήλωσε η Dessislava Savova, εταίρος που επικεντρώνεται στην τεχνολογία στη νομική εταιρεία Clifford Chance. «Θα προκαλέσει στην πραγματικότητα έναν διάλογο στην Ευρώπη και θα επιταχύνει μια θέση που θα ληφθεί από άλλες ρυθμιστικές αρχές».

ΟΛΕΣ ΟΙ ΕΙΔΗΣΕΙΣ

προσωπικά δεδομέναειδήσεις τώρατεχνητή νοημοσύνηΕυρωπαϊκή Ένωση