Ως μία χρονιά που δεν ήταν ιδιαίτερα επαναστατική στο χώρο της τεχνητής νοημοσύνης αλλά ξεκίνησε η χρήση της επί του πεδίου, με αποτέλεσμα να αρχίσουν να φαίνονται οι επιπτώσεις, των πολλών εξελίξεων που καταγράφηκαν στον τομέα την προηγούμενη διετία και κυρίως το 2023, χαρακτηρίζει το έτος που φεύγει ο κύριος ερευνητής του Αριστοτελείου Πανεπιστημίου Θεσσαλονίκης και του ΕΚΕΤΑ για θέματα ΑΙ, Ιωάννης Πήτας.Όπως αναφέρει, η κοινωνία είναι σε σημαντικό βαθμό τρομοκρατημένη εξαιτίας της τεχνητής νοημοσύνης και δεν βοηθάει καθόλου σε αυτό η προσέγγιση και ο τρόπος που αντιμετωπίζουν το ζήτημα οι αρμόδιοι.393208_1Κατά τον κ. Πήτα, μέσα στο 2026 αναμένεται να επεκταθούν οι αλλαγές που ξεκίνησαν ήδη στο χώρο της τεχνητής νοημοσύνης. Ο ίδιος σημειώνει, ωστόσο, ότι δεν θα πρέπει να υπάρχει τεχνοφοβική προσέγγιση από την κοινωνία καθώς και η ανησυχία ότι η τεχνητή νοημοσύνη θα φέρει σαρωτικές αλλαγές και οι εταιρείες θα αρχίσουν να διώχνουν μαζικά τους εργαζομένους τους, αντικαθιστώντας τους με AI.Σημαντικές οι αλλαγές στο χώρο της εργασίαςΟ κ. Πήτας λέει στο ethnos.gr ότι η τεχνητή νοημοσύνη αναμφίβολα θα φέρει αλλαγές στο χώρο της αγοράς εργασίας. Μάλιστα, σε κάποια επαγγέλματα οι αλλαγές θα είναι σαρωτικές και οι εργαζόμενοι σε αυτά θα νιώσουν να φεύγει η γη κάτω από τα πόδια τους. Ως χαρακτηριστικό παράδειγμα αναφέρει τους μεταφραστές, οι οποίοι θα βρεθούν σε πολύ δύσκολη θέση, ενώ θέσεις εργασίας αναμένεται να χαθούν γενικώς στα επαγγέλματα που σχετίζονται με την πνευματική εργασία.«Η τεχνητή νοημοσύνη θα συμβάλλει, ώστε να αλλάξει μορφή και το δημοσιογραφικό επάγγελμα, όμως, σε αυτό οι επιπτώσεις δεν θα είναι δραματικές. Σε διεθνές επίπεδο θα πληγούν σημαντικά, όσοι κάνουν καλά αμειβόμενη πνευματική εργασία, όπως, για παράδειγμα, στο Χόλυγουντ αυτοί που ασχολούνται με το animation ή με τη συγγραφή κειμένων. Στον αντίποδα. πολύ λιγότερες θα είναι οι επιπτώσεις στο χώρο της χειρωνακτικής εργασίας. Όπως φαίνεται, η τεχνητή νοημοσύνη αρέσκεται να τρώει τα παιδιά της, αφού φέρνει επιπτώσεις κυρίως σε αυτούς που απασχολούνται στο χώρο της πνευματικής εργασίας. Είναι δεδομένο ότι θα υπάρξουν επιπτώσεις στο χώρο της εργασίας από την τεχνητή νοημοσύνη, όμως, δεν θα είναι τόσο δραματικές, όσο παρουσιάζονται από κάποιους, ότι, δηλαδή, στα επόμενα δύο-τρία χρόνια θα έχει σαρώσει τα πάντα. Ορισμένες αλλαγές έχουν γίνει ήδη και αυτές θα συνεχιστούν μέσα στο 2026», λέει στο ethnos.gr ο κ. Πήτας. Κατά τον ίδιο, δεν αναμένεται οι εταιρείες να ξεκινήσουν μαζικές απολύσεις του προσωπικού τους εξαιτίας της τεχνητής νοημοσύνης, ωστόσο, η τελευταία πιθανότατα θα φέρει αύξηση της παραγωγικότητας, με αποτέλεσμα να είναι πιθανό να… περισσέψουν κάποιοι εργαζόμενοι.«Ωστόσο, η τεχνητή νοημοσύνη θα προκαλέσει και δημιουργία θέσεων εργασίας, στις οποίες θα μπορέσουν να απορροφηθούν κάποιοι από αυτούς που θα έχουν χάσει τη δουλειά τους. Να αναφέρω ως παράδειγμα το χώρο της τεχνολογίας, στον οποίο θα δημιουργηθούν θέσεις εργασίας. Προγραμματιστές είναι πολύ πιθανό να προσλάβουν σχεδόν όλες οι εταιρείες, προκειμένου να μπούνε ομαλά στη νέα εποχή. Μένει, βέβαια, να δούμε, αν οι αλλαγές θα γίνουν με ομαλό ρυθμό και τρόπο. Πιστεύω ότι οι αλλαγές θα γίνουν με λογικό τρόπο, αλλά αυτό θα περιμένουμε να φανεί. Πολλά θα εξαρτηθούν και από την κάθε χώρα, από το αν και πόσο θα επενδύσει στη νέα τεχνολογία», σημειώνει ο κ. Πήτας.Οι κίνδυνοι που ελλοχεύουνΚατά τον κύριο ερευνητή του ΑΠΘ και του ΕΚΕΤΑ για την τεχνητή νοημοσύνη, υπάρχουν κίνδυνοι που ελλοχεύουν από την τελευταία, κάποιοι από τους οποίους αντιμετωπίζουμε ήδη, ενώ κάποιοι άλλοι θα φανούν στο μέλλον.Όπως χαρακτηριστικά αναφέρει, ένας πολύ σοβαρός κίνδυνος είναι να δημιουργηθούν πολύ σοβαρές αρνητικές επιπτώσεις στην ίδια την Δημοκρατία μας, μέσω της διασποράς ψευδών ειδήσεων και την επίδραση που αυτές θα έχουν στην εκλογική συμπεριφορά των ψηφοφόρων.«Δεν είναι καθόλου απλό και δημιουργούνται μεγάλοι κίνδυνοι για τη Δημοκρατία μας, από τη στιγμή που μπορούν να επηρεαστούν μαζικά οι εκλογείς με στοχευμένες πολιτικές. Επίσης, η τεχνητή νοημοσύνη μπορεί να επιτείνει τους κινδύνους που υπάρχουν ήδη στα μέσα κοινωνικής δικτύωσης, αν δεν ρυθμίσουμε το συγκεκριμένο χώρο. Έπρεπε εδώ και πολύ καιρό να υπήρχαν κανόνες για τη χρήση τους κυρίως από τις ευαίσθητες ομάδες. Τα λέγαμε εδώ και πολύ καιρό αλλά κανένας δεν μας άκουγε. Τώρα ξεκίνησαν να μπαίνουν κανόνες στα μέσα κοινωνικής δικτύωσης στην Αυστραλία και θεωρώ ότι θα ακολουθήσει και η Ευρωπαϊκή Ένωση», τονίζει ο κ. Πήτας.Ο ίδιος αναφέρει ακόμα ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για μεθόδους κυβερνοεγκλήματος, όπως, για παράδειγμα, όταν κάποιος εγκληματίας παρουσιάζεται μέσω τεχνητής νοημοσύνης στο θύμα με τη φωνή του αφεντικού του ή κάποιου δικού του ανθρώπου, προκειμένου να του αποσπάσει χρήματα.«Αυτό, δυστυχώς, ήδη συμβαίνει, όπως και το να… ξεντύνουν κοπέλες μέσω της τεχνητής νοημοσύνης και να διοχετεύουν γυμνές φωτογραφίες τους στο διαδίκτυο. Αν δεν κάνουμε κάτι, όλα αυτά θα επεκταθούν. Επίσης, επειδή η τεχνητή νοημοσύνη θα οδηγήσει σε μία μεικτή κοινωνία ανθρώπων και μηχανών, θα πρέπει το τοπίο οπωσδήποτε να ρυθμιστεί, αλλιώς θα έχουμε καταστροφικές επιπτώσεις. Δεν θα ξέρεις, αν θα μιλάς με άνθρωπο ή με μηχανή μέσω διαδικτύου. Αυτό είναι τεράστιο πρόβλημα. Μπορεί να ρυθμιστεί αλλά, δυστυχώς, δεν το κάνουμε», καταλήγει ο κ. Πήτας.