Τετάρτη 17 Σεπτεμβρίου 2025
"Αυτά τα εργαλεία επεκτείνουν τις δυνατότητές μας, αλλά δεν πρέπει να μας καθοδηγούν"
Τζοάννα Κάο: «Πόση δύναμη έχουν τελικά οι πολίτες στο να επηρεάζουν την τεχνητή νοημοσύνη;»
20.07.2025

Η Τζοάννα Κάο, εξειδικευμένη σε ζητήματα τεχνητής νοημοσύνης και επικεφαλής του Δικτύου Λογοδοσίας για την Τεχνητή Νοημοσύνη στο Pulitzer Center, μιλά στο ΒΗΜΑ για όλες τις προκλήσεις της σύγχρονης ψηφιακής εποχής.
Σε μια εποχή όπου η τεχνητή νοημοσύνη διεισδύει σε κρίσιμους τομείς —από τις προσλήψεις και την υγειονομική περίθαλψη έως τις πλατφόρμες κοινωνικής δικτύωσης και τη λήψη αποφάσεων στον δημόσιο τομέα— εγείρονται σοβαρά ερωτήματα για τη λογοδοσία, τη διαφάνεια και τα ηθικά όρια στα συστήματα τεχνητής νοημοσύνης. Πώς λειτουργούν πραγματικά τα συστήματα τεχνητής νοημοσύνης; Ποιος αποφασίζει για την αρχιτεκτονική τους, και ποιος ελέγχει τα αποτελέσματα που παράγουν;
Η Τζοάννα Κάο πριν μερικές μέρες επισκέφθηκε τη Θεσσαλονίκη, στο περιθώριο του Reworks Agora 2025, όπου συζήτησε με την Κέλλυ Κική (Data Editor, iMEdD) για τη διαφάνεια και τη λογοδοσία της τεχνητής νοημοσύνης. Στο πλαίσιο της επίσκεψής της στην Ελλάδα, μίλησε στο ΒΗΜΑ για τα κρισιμότερα ζητήματα στον κλάδο της τεχνητής νοημοσύνης.
Σε συνέντευξή της, λοιπόν, στο ΒΗΜΑ, η Τζοάννα Κάο μιλά σε βάθος για τη σημασία της λογοδοσίας στην εποχή των αλγορίθμων, τη δύναμη των πολιτών να επηρεάσουν τη χρήση της τεχνητής νοημοσύνης και τον ρόλο της δημοσιογραφίας στην αποκάλυψη όσων συχνά παραμένουν αόρατα πίσω από το «μαύρο κουτί» των τεχνολογικών συστημάτων.
Η Τζοάννα Κάο είναι εξειδικευμένη σε ζητήματα τεχνητής νοημοσύνης, διαφάνειας, μεροληψίας και κοινωνικού αντίκτυπου, με μακρά εμπειρία σε έρευνες δεδομένων και διεθνή ρεπορτάζ σε αυτό το πεδίο.
Ένα από τα πιο κρίσιμα ερωτήματα είναι το αν και κατά πόσο γνωρίζουμε πως πραγματικά λειτουργούν οι αλγόριθμοι. Ο όρος «μαύρο κουτί» (black boxing) συχνά χρησιμοποιείται για να περιγραφεί το γεγονός πως μεγάλη μερίδα των χρηστών δεν γνωρίζει πολλές πληροφορίες για τον τρόπο λειτουργίας των συστημάτων τεχνητής νοημοσύνης.
Η λογοδοσία είναι τροχοπέδη στην ανάπτυξη των αλγορίθμων;
Μεγάλες εταιρείες τεχνολογίας υποστηρίζουν πως η μεγαλύτερη λογοδοσία και διαφάνεια προς το κοινό μπορεί να επιβραδύνει την ανάπτυξή τους. Μπορεί να βρεθεί κάποιου είδους ισορροπία μεταξύ διαφάνειας και αποτελεσματικότητας;
Δεν είμαι σίγουρη αν η λέξη «ισορροπία» είναι η σωστή λέξη, γιατί δεν πιστεύω ότι η διαφάνεια και η αποδοτικότητα είναι αναγκαστικά αντίθετες έννοιες. Δεν σημαίνει ότι όσο πιο διαφανής είσαι, τόσο λιγότερο αποδοτικός γίνεσαι — ή το αντίστροφο. Στην πραγματικότητα, η διαφάνεια μπορεί να βοηθήσει τις κυβερνήσεις να κινηθούν ταχύτερα. Όπως άλλωστε και το λογισμικό ανοικτού κώδικα: όταν περισσότεροι άνθρωποι μπορούν να δουν και να καταλάβουν πως λειτουργεί κάτι, μπορούν να συνδράμουν στην βελτίωσή του.
Το σημείο κλειδί είναι να κατασκευάζονται διαφανή συστήματα τεχνητής νοημοσύνης από την αρχή.
Αυτό σημαίνει στην πράξη την θέσπιση διαδικασιών με σκοπό τη δημοσιοποίηση δεδομένων που χρησιμοποιούνται σε ένα μοντέλο τεχνητής νοημοσύνης και πληροφοριών για τον τρόπο που αυτό εκπαιδεύεται. Όταν αυτό αποτελεί μέρος της διαδικασίας δημιουργίας μοντέλων από την αρχή, δεν είναι πρόσθετη εργασία – είναι απλώς μέρος του τρόπου που μπορούν τα συστήματα τεχνητής νοημοσύνης να κατασκευάζονται υπεύθυνα και αποτελεσματικά.
Πως μπορεί να ενισχυθεί η εμπιστοσύνη των πολιτών στην ενσωμάτωση της τεχνητής νοημοσύνης σε διαδικασίες του δημοσίου τομέα;
Υπάρχουν διάφοροι τρόποι που μπορεί να ενισχυθεί η εμπιστοσύνη των πολιτών. Η νομοθεσία που σχετίζεται με την πρόσβαση σε δημόσια έγγραφα είναι πολύ σημαντική. Η πρόσβαση είτε απλών πολιτών ή δημοσιογράφων σε πληροφορίες για το πώς δημιουργήθηκε ένα μοντέλο τεχνητής νοημοσύνης, δηλαδή πως αναπτύχθηκε, ποιοι το σχεδίασαν, ποια συμφέροντα εμπλέκονται, βοηθά σημαντικά στο να αποφεύγονται υποθετικά σενάρια και να ενισχύεται η λογοδοσία.
Νομίζω ότι είναι πολύ σημαντικό οι πολίτες-χρήστες να ξέρουν πως λειτουργούν οι αλγόριθμοι πάνω τους, καθώς αυτό τους δίνει τη δυνατότητα να γνωρίζουν αναλυτικά πως χρησιμοποιούνται τα προσωπικά τους δεδομένα.Αυτό, επίσης, δίνει την αίσθηση και την ευκαιρία να εντοπίζουν οι χρήστες πότε ορισμένες απαντήσεις των μοντέλων τεχνητής νοημοσύνης είναι παρωχημένες ή λανθασμένες. Ειδικά στην περίπτωση που τα δεδομένα τους χρησιμοποιούνται σε μοντέλα που λαμβάνουν αποφάσεις για τη ζωή τους.
Παγκόσμιο ράλι για την τεχνητή νοημοσύνη
Μέσα στο πλαίσιο του διεθνούς τεχνολογικού ανταγωνισμού μεταξύ των χωρών παρατηρούμε διαφορετικές προσεγγίσεις ανάμεσα στις ΗΠΑ, την Ευρώπη και την Ασία.Οι ΗΠΑ προωθούν την καινοτομία με ένα μοντέλο περιορισμένης ρύθμισης, η ΕΕ προκρίνει την νομοθέτηση, ενώ η Κίνα κινείται με μια στρατηγική επικεντρωμένη στο κράτος. Ποια προσέγγιση είναι πιο αποτελεσματική; Υστερεί η ΕΕ;
Δεν θα έλεγα ότι κάποιο σύστημα είναι ξεκάθαρα καλύτερο — δεν είμαι ειδικός στη γεωπολιτική. Αλλά αυτό που βλέπω είναι ότι η τεχνητή νοημοσύνη αναπτύσσεται μέσα στο πλαίσιο του κάθε πολιτικού συστήματος. Άρα, το βασικό ερώτημα είναι: πόση δύναμη έχουν οι πολίτες να συμμετέχουν και να επηρεάζουν αυτό που συμβαίνει;Στις ΗΠΑ, η λογική του «κινήσου γρήγορα και διόρθωσε μετά» μπορεί να οδηγήσει σε αποτυχίες. Αν για παράδειγμα εκπαιδεύσεις ένα μοντέλο αναγνώρισης προσώπου με δεδομένα κυρίως από λευκούς ανθρώπους, το σύστημα θα αποτύχει σε άλλες κοινότητες.
Το τι είναι καινοτομία είναι σχετικό. Αυτό που για κάποιους φαίνεται καινοτόμο, για άλλους μπορεί να είναι άδικο ή επιβλαβές. Η ρύθμιση, η οποία προκρίεται από την ΕΕ, μπορεί να προσφέρει αναχώματα, αλλά χρειάζεται ουσιαστική εφαρμογή και ενεργή συμμετοχή των πολιτών, ώστε να είναι αποτελεσματική.
Εύλογο ερώτημα, το οποίο αναδύεται είναι το τι ορίζουμε ως καινοτομία στο πεδίο της Τεχνητής Νοημοσύνης.
Δύσκολη ερώτηση. Συνήθως, συνδέουμε την καινοτομία με κάτι καινούργιο. Σε ό,τι αφορά την τεχνητή νοημοσύνη καινοτομία είναι κάτι που μπορεί να φέρει μια νεά ή και καλύτερη λύση σε ένα πρόβλημα. Για μένα, πραγματική καινοτομία σημαίνει συστήματα που είναι πιο συμπεριληπτικά, πιο φιλικά προς το περιβάλλον, που σέβονται την ανθρώπινη εργασία. Αν ένα σύστημα βλάπτει ή αποκλείει, δεν αποτελεί καινοτομία — ό,τι κι αν υπόσχεται τεχνικά.
Τι ρόλο παίζουν οι τεχνολογικοί κολωσσοί
Οι μεγάλες τεχνολογικές πλατφόρμες — Google, Apple, Facebook, Amazon και Microsoft, γνωστές και ως GAFAM — δεν είναι απλώς επιχειρηματικοί κολοσσοί· λειτουργούν πλέον ως δομές εξουσίας στο ψηφιακό οικοσύστημα. Ορίζουν τα πρότυπα, διαχειρίζονται τεράστιους όγκους προσωπικών δεδομένων και καθορίζουν, εν πολλοίς αδιαφανώς, τι βλέπουμε και πώς αλληλεπιδρούμε στο διαδίκτυο.
Οι μεγάλες τεχνολογικές εταιρείες, οι λεγόμενες GAFAM, κατηγορούνται ότι λειτουργούν ως ολιγοπώλιο στον ψηφιακό χώρο. Πώς μπορούν να κινηθούν οι δημοσιογράφοι και οι πολίτες μέσα σε αυτό το τοπίο;
Είναι δύσκολο, κυρίως επειδή δεν υπάρχει διαφάνεια. Δεν γνωρίζουμε πώς εκπαιδεύονται τα μοντέλα τους, τι δεδομένα χρησιμοποιούνται, ποιοι είναι οι μηχανισμοί λειτουργίας. Και επειδή είναι ιδιωτικές εταιρείες, δεν είναι υποχρεωμένες να δώσουν απαντήσεις. Αλλά οι άνθρωποι μπορούν να κάνουν ερωτήσεις. Αν ζουν στην ΕΕ, μπορούν να υποβάλουν αιτήματα πρόσβασης στα προσωπικά τους δεδομένα (GDPR).
Τα δεδομένα είναι το νέο νόμισμα. Μπορούμε να επιλέξουμε να τα δώσουμε σε εταιρείες που μας ενημερώνουν για το πως τα διαχειρίζονται. Οι κοινότητες των πολιτών-χρηστών μπορούν να δημιουργήσουν δικά τους συστήματα. Όταν οι μεγάλες εταιρείες εξυπηρετούν μόνο ένα μέρος του πληθυσμού, οι μικρές πρωτοβουλίες μπορούν να προσφέρουν εναλλακτικές λύσεις πιο δίκαιες και πιο συμπεριληπτικές.
Ποιοι είναι οι πρακτικοί περιορισμοί στην απόδοση λογοδοσίας στις μεγάλες πλατφόρμες; Αν ρωτήσουμε, θα μας απαντήσουν;
Συχνά, δεν απαντούν. Αλλά είναι σημαντικό να το γνωρίζουμε αυτό. Οι καταναλωτές μπορούν να επιλέξουν: θα δώσεις τα δεδομένα σου σε μια εταιρεία που είναι διαφανής ή σε μια που δεν είναι; Μπορούμε επίσης να αξιοποιούμε τα νομικά μας δικαιώματα, όπως το κανονισμό για τα προσωπικά δεδομένα (GDPR).
Η ενημέρωση, η επίγνωση και η συλλογική πίεση παραμένουν τα πιο ισχυρά εργαλεία που έχουμε.
Πως μπορεί η δημοσιογραφία να μπει στα άδυτα των αλγορίθμων;
Καθώς τα αλγοριθμικά συστήματα αποκτούν αυξανόμενο ρόλο στη δημόσια και ιδιωτική σφαίρα, η δημοσιογραφία βρίσκεται αντιμέτωπη με μια νέα πρόκληση: πώς ερευνάς κάτι που δεν βλέπεις; Η παραδοσιακή πρόσβαση σε έγγραφα, πρόσωπα και θεσμούς δεν επαρκεί όταν το «υποκείμενο» της έρευνας είναι ένας αλγόριθμος ή ένα μοντέλο μηχανικής μάθησης. Παρ’ όλα αυτά, αναπτύσσονται σταδιακά πρακτικές και μεθοδολογίες που επιτρέπουν στους ερευνητές να ρίξουν φως σε αδιαφανή τεχνολογικά οικοσυστήματα.
Μπορείτε να περιγράψετε αποτελεσματικές μεθόδους έρευνας για δημοσιογράφους που θέλουν να ελέγξουν αλγορίθμους με περιορισμένη διαφάνεια;
Η ιδανική περίπτωση — το «Άγιο Δισκοπότηρο» — είναι να έχεις πρόσβαση σε τεχνική τεκμηρίωση: δεδομένα εκπαίδευσης, κώδικα, αποτελέσματα. Αυτό όμως είναι σπάνιο. Εναλλακτικά, μπορείς να βασιστείς σε έγγραφα εκ των έσω ή μαρτυρίες από πρώην εργαζόμενους. Εκεί πρέπει να προστατεύεις τις πηγές και να γνωρίζεις τους νομικούς κινδύνους. Μπορείς επίσης να δοκιμάσεις τα ίδια τα συστήματα ή να συγκεντρώσεις εμπειρικά δεδομένα από χρήστες. Η συστηματική δοκιμή μπορεί να αποκαλύψει προκαταλήψεις και ανισότητες.
Έχετε συναντήσει ηθικά διλήμματα κατά την έρευνα για αλγοριθμικά συστήματα;
Ναι, κυρίως όσον αφορά τις πηγές και τη συναίνεση. Πρέπει να εξηγούμε πάντα στους ανθρώπους τους κινδύνους που αναλαμβάνουν μιλώντας σε εμάς.
Επίσης, όταν δοκιμάζεις ένα σύστημα, πρέπει να είσαι δίκαιος, να μην εκμεταλλεύεσαι την τεχνολογία. Αν χρησιμοποιείς τεχνητή νοημοσύνη για να ερευνήσεις την τεχνητή νοημοσύνη, πρέπει να γνωρίζεις τις προκαταλήψεις της.
Πώς βλέπετε την εξέλιξη της δημοσιογραφίας στον απόηχο των εξελίξεων της τεχνητής νοημοσύνης; Χρειάζεται πλέον να είσαι τεχνολογικά καταρτισμένος για να επιβιώσεις;
Η τεχνητή νοημοσύνη είναι ένα εργαλείο — όπως και η δημοσιογραφία δεδομένων ήταν κάποτε το «μέλλον» της δημοσιογραφίας. Αν ξέρεις να τη χρησιμοποιείς σωστά, μπορεί να ενισχύσει το έργο σου. Στο Pulitzer Center που εργάζομαι, έχουμε υποστηρίξει έργα που χρησιμοποιούν τεχνητή νοημοσύνη για ανάλυση δορυφορικών εικόνων ή αυτοματοποίηση ερευνών. Αυτά τα εργαλεία επεκτείνουν τις δυνατότητές μας, αλλά δεν πρέπει να μας καθοδηγούν.
Τα μοντέλα τεχνητής νοημοσύνης εκπαιδεύονται σε περιορισμένα και μεροληπτικά δεδομένα. Οι δημοσιογράφοι έχουν τη μοναδική ικανότητα — και ευθύνη — να φέρνουν στο φως πλευρές των ζητημάτων που δεν εκπροσωπούνται επαρκώς στα μεγάλα σύνολα δεδομένων. Αυτό είναι κάτι που οι αλγόριθμοι μόνοι τους δεν μπορούν να κάνουν.
Πηγή:
«Το γράψιμο είναι σκέψη· η σκέψη είναι γράψιμο. Αν καταργήσουμε αυτήν την διαδικασία, τι μένει από την σκέψη;»
Τεχνητή Νοημοσύνη: Πώς το ChatGPT αλλάζει τον τρόπο σκέψης και γραφής των φοιτητών02.07.2025

Η αθέατη επίδραση των εργαλείων AI στην κριτική ικανότητα και την πνευματική προσπάθεια των φοιτητών
Η Jocelyn Leitzinger που διδάσκει Εμπόριο και Κοινωνία εκτιμά ότι περίπου οι μισοί από τους 180 φοιτητές της έχουν χρησιμοποιήσει ChatGPT κατά ανάρμοστο τρόπο κατά το τελευταίο εξάμηνο – ακόμη και στις περιπτώσεις που έπρεπε να γράψουν για θέματα ηθικής που συνδέονται με την Τεχνητή Νοημοσύνη (AI) …
Και δεν εκπλήσσεται από τα αποτελέσματα πρόσφατης έρευνας που δείχνει ότι οι φοιτητές που χρησιμοποιούν την γενετική ΑΙ για να γράψουν τις εργασίες τους διαθέτουν λιγότερο κριτικό πνεύμα.
Η προκαταρκτική έρευνα έχει γίνει viral στα κοινωνικά δίκτυα βρίσκοντας απήχηση στο πλήθος των εκπαιδευτικών που βρίσκονται αντιμέτωποι με την πρακτική αυτή.
Μια πειραματική έρευνα και τα πρώτα νευρολογικά ευρήματα
Από την δημοσίευσή της τον περασμένο μήνα, περισσότεροι από 3.000 εκπαιδευτικοί έχουν γράψει στην ομάδα των ερευνητών του MIT που πραγματοποίησε την έρευνα, σύμφωνα με την Nataliya Kosmyna, την βασική της συντάκτη.
Για την έρευνα, η οποία δεν έχει ακόμη αξιολογηθεί, 54 φοιτητές της περιοχής της Βοστώνης χωρίστηκαν σε τρεις ομάδες. Επρεπε να γράψουν εργασίες σε 20 λεπτά: στην πρώτη οι φοιτητές χρησιμοποίησαν το ChatGPT, στην δεύτερη μία μηχανή αναζήτησης και στην τρίτη μόνο το μυαλό τους.
Οι ερευνητές μέτρησαν την εγκεφαλική δραστηριότητα των φοιτητών σε συνεδρίες που απείχαν μεταξύ τους μήνες και δύο εκπαιδευτικοί επιφορτίσθηκαν με την βαθμολόγηση των γραπτών.
Οσοι χρησιμοποίησαν το ChatGPT είχαν σημαντικά λιγότερο καλά αποτελέσματα σε σχέση με εκείνους που χρησιμοποίησαν μόνο το μυαλό τους. Εγκεφαλογραφήματα έδειξαν ότι διαφορετικές περιοχές του εγκεφάλου συνδέονταν μεταξύ τους λιγότερο συχνά.
Επίσης, άνω του 80% των χρηστών της AI δεν ήταν σε θέση να παραθέσουν κανένα τμήμα της εργασίας που μόλις είχαν γράψει. Το ποσοστό αυτό είναι μόνο 10% για τις άλλες δύο ομάδες.
Στην τρίτη συνεδρία ήταν πλέον κολλημένοι στο copy-paste.
Από την πλευρά τους, οι εκπαιδευτικοί που βαθμολόγησαν τα γραπτά δήλωσαν ότι τους ήταν εύκολο να αναγνωρίσουν τις εργασίες «χωρίς ψυχή» που γράφτηκαν μέσω της Τεχνητής Νοημοσύνης. Αν και η γραμματική και το συντακτικό ήταν σωστά, έλειπαν η δημιουργικότητα, η προσωπικότητα και η εις βάθος σκέψη.
Ωστόσο, η επικεφαλής της έρευνας δεν δέχεται τις ερμηνείες που προέβαλαν ορισμένα μέσα ενημέρωσης σύμφωνα με τις οποίες η Τεχνητή Νοημοσύνη κάνει τους ανθρώπους χαζούς και τεμπέληδες.
Οι αντιδράσεις της επιστημονικής κοινότητας και οι ευρύτερες ανησυχίες
Κατά την τέταρτη συνεδρία, η ομάδα των φοιτητών που δεν είχε χρησιμοποιήσει μέχρι εκεί παρά μόνο το μυαλό κλήθηκε να χρησιμοποιήσει για πρώτη φορά το ChatGPT…και εκεί διαπιστώθηκε ακόμη υψηλότερη νευρωνική συνδεσιμότητα, επισημαίνει η Nataliya Kosmyna.
Είναι πολύ νωρίς για να εξαχθούν συμπεράσματα από μία τόσο περιορισμένη έρευνα, λέει η ερευνήτρια προσθέτοντας ότι θα χρειασθούν επιπλέον έρευνες για τον τρόπο χρησιμοποίησης των εργαλείων της AI για την διευκόλυνση της μάθησης.
Η Ashley Juavinett, νευροεπιστήμονας του Πανεπιστημίου της Καλιφόρνιας-Σαν Ντιέγκο, η οποία δεν συμμετείχε την έρευνα, επικρίνει επίσης ορισμένες συναγωγές που έγιναν με βάση την έρευνα του MIT.
«Αυτό το άρθρο δεν παρέχει ικανές αποδείξεις, ούτε διαθέτει μεθοδολογική επάρκεια για να εξαχθούν συμπεράσματα σχετικά με τις επιπτώσεις των μεγάλων γλωσσικών μοντέλων, όπως το ChatGPT, στην λειτουργία του εγκεφάλου», λέει.
Ομως, σύμφωνα με την Jocelyn Leitzinger, τα αποτελέσματα αυτά απηχούν την δική της αντίληψη για τον τρόπο κατά τον οποίο οι γραπτές εργασίες των φοιτητών της άλλαξαν μετά την άφιξη του ChatGPT το 2022: λιγότερα ορθογραφικά λάθη, αλλά και λιγότερη αυθεντικότητα.
Η εμφάνιση της τεχνητής νοημοσύνης παραβάλλεται συχνά με την εισαγωγή των αριθμομηχανών (κομπιουτεράκια), που υποχρέωσε τους καθηγητές να αλλάξουν τις μεθόδους τους.
Η Jocelyn Leitzinger ανησυχεί για το γεγονός ότι οι φοιτητές δεν έχουν ανάγκη από καμία βασική γνώση πριν χρησιμοποιήσουν την Τεχνητή Νοημοσύνη, πηδώντας έτσι μία θεμελιώδη φάση μάθησης.
Το πρόβλημα ξεπερνά τον χώρο της εκπαίδευσης. Οι επιστημονικές επιθεωρήσεις δυσκολεύονται να αντιμετωπίσουν τον κατακλυσμό άρθρων που αποτελούν προϊόντα της AI. Το ίδιο ανησυχεί και ο εκδοτικός τομέας, την ώρα που μία start-up σχεδιάζει να εκδίδει 8.000 βιβλία ετησίως, όλα προϊόντα της AI.
«Το γράψιμο είναι σκέψη· η σκέψη είναι γράψιμο. Αν καταργήσουμε αυτήν την διαδικασία, τι μένει από την σκέψη;», αναρωτιέται η καθηγήτρια του Πανεπιστημίου του Ιλινόι.
Πηγή:
Εγγραφή σε:
Σχόλια (Atom)

