Αθήνα, 26°C
Αθήνα
Ελαφρές νεφώσεις
26°C
28.4° 24.1°
4 BF
48%
Θεσσαλονίκη
Σποραδικές νεφώσεις
28°C
29.7° 26.6°
3 BF
39%
Πάτρα
Σποραδικές νεφώσεις
25°C
26.6° 24.9°
3 BF
53%
Ιωάννινα
Αραιές νεφώσεις
21°C
21.2° 21.2°
2 BF
64%
Αλεξανδρούπολη
Ελαφρές νεφώσεις
24°C
25.2° 23.9°
3 BF
57%
Βέροια
Αυξημένες νεφώσεις
26°C
26.6° 21.0°
1 BF
49%
Κοζάνη
Αραιές νεφώσεις
17°C
22.9° 17.4°
2 BF
68%
Αγρίνιο
Αραιές νεφώσεις
25°C
24.6° 24.6°
2 BF
51%
Ηράκλειο
Ασθενείς βροχοπτώσεις
25°C
24.8° 22.7°
2 BF
66%
Μυτιλήνη
Ελαφρές νεφώσεις
29°C
28.9° 25.7°
3 BF
24%
Ερμούπολη
Ελαφρές νεφώσεις
24°C
24.8° 23.8°
3 BF
64%
Σκόπελος
Ελαφρές νεφώσεις
24°C
23.7° 22.9°
2 BF
57%
Κεφαλονιά
Ελαφρές νεφώσεις
24°C
23.9° 23.9°
1 BF
64%
Λάρισα
Σποραδικές νεφώσεις
28°C
27.9° 26.3°
2 BF
30%
Λαμία
Αυξημένες νεφώσεις
23°C
24.5° 22.4°
2 BF
51%
Ρόδος
Ελαφρές νεφώσεις
23°C
23.8° 23.2°
4 BF
75%
Χαλκίδα
Σποραδικές νεφώσεις
27°C
28.2° 26.0°
3 BF
23%
Καβάλα
Ελαφρές νεφώσεις
23°C
23.3° 22.7°
3 BF
75%
Κατερίνη
Αυξημένες νεφώσεις
24°C
27.7° 24.2°
3 BF
67%
Καστοριά
Αυξημένες νεφώσεις
21°C
20.8° 20.8°
1 BF
59%
ΜΕΝΟΥ
ΕΝΤΥΠΗ ΕΚΔΟΣΗ

Ειδησεογραφία στα γρανάζια των αλγόριθμων

Το 2007 o Maikl Wesch, καθηγητής Πολιτισμικής Ανθρωπολογίας του Πανεπιστημίου του Κάνσας, ανέβασε ένα βίντεο στο youtube το οποίο έμελλε να γίνει ιδιαίτερα δημοφιλές. Είχε τίτλο: Η μηχανή είμαστε εμείς/μας χρησιμοποιεί (The machine is us(ing) us). Το κείμενο στον ψηφιακό κόσμο, έλεγε ο Wesch, είναι ρέον και υπερκειμενικό, όχι στατικό. Θα μας αναγκάσει να επανεξετάσουμε ζητήματα όπως τι σημαίνει συγγραφή και συγγραφέας, τα πνευματικά δικαιώματα, αφού δεν θα υπάρχει πλέον πρωτότυπο και αντίγραφο, την ηθική της επικοινωνίας, πώς θα ασκείται η διακυβέρνηση, την ιδιωτικότητα, το εμπόριο, τις προσωπικές σχέσεις κ.ά.

Αυτό που ο Wesch και οι περισσότεροι φαντάζονταν εκείνη την εποχή ήταν ότι η ψηφιακή τεχνολογία θα μας απάλλασσε από τις γραφειοκρατικές ιεραρχίες και θα επέτρεπε την ανάπτυξη δικτύων χωρίς τη διαμεσολάβησή τους σε έναν πιο ελεύθερο και δημιουργικό κόσμο. Το Matrix βέβαια είχε κυκλοφορήσει ήδη από το 1999, αλλά στα μίντια αντιμετωπιζόταν μέσα από το αμφίθυμο σχήμα τεχνοφιλίας-τεχνοφοβίας. Για τα μέσα ενημέρωσης οδεύαμε τότε προς μια τεχνο-ουτοπία, άλλοτε προς μια τεχνο-δυστοπία.

Πολλά χρόνια αργότερα και αφότου η φιλελεύθερη τεχνο-ουτοπία συνάντησε τα όριά της στην καταστολή των αραβικών εξεγέρσεων του 2011-2012, η κριτική στα αμερικανικά ψηφιακά μονοπώλια (GAFAM) που διαβρώνουν τη δημοκρατία ογκώθηκε. Σήμερα φαίνεται πως περνάμε σε μια νέα φάση ιστορικής ανάπτυξης του παγκόσμιου μέσου του Διαδικτύου, τη φάση του λογισμικού.

Η μηχανή μαθαίνει να μιλάει

Στην ιστορία του Διαδικτύου ως παγκόσμιου μέσου επικοινωνίας η πρώτη φάση ανάπτυξής του αφορούσε την παραγωγή γρηγορότερων υπολογιστών και δικτύων, την ανάπτυξη φιλικού λογισμικού για προσωπικούς υπολογιστές και τον παγκόσμιο ιστό και την ανάπτυξη του περιεχομένου μέσω της ψηφιοποίησης όλο και περισσότερων δημόσιων και ιδιωτικών λειτουργιών. Αν εκείνη την εποχή η παραγωγή δεδομένων μιας χρονιάς συγκρινόταν με το σύνολο των κειμένων στη Βιβλιοθήκη της Αλεξάνδρειας, σήμερα αυτό δεν είναι παρά ένα ελάχιστο κλάσμα της ποσότητας των δεδομένων που παράγονται καθημερινά. Μια πρόβλεψη της IDC (International Data Group) αναφέρει ότι το 2025 θα υπάρχουν 163 ζεταμπάιτ δεδομένων, δηλαδή 270 bytes. Το 2018 ήταν μόνο 17 ζεταμπάιτ, ενώ κάθε χρόνο παράγονται αυξανόμενα περισσότερα δεδομένα δημιουργώντας μάλιστα μείζον περιβαλλοντικό πρόβλημα.

Αν το Internet ήταν χώρα, θα ήταν η έκτη χειρότερη παγκοσμίως στην παραγωγή διοξειδίου του άνθρακα, σύμφωνα με την Greenpeace, και αυτή είναι μια μετριοπαθής εκτίμηση του προβλήματος. Τα τεράστια σύνολα δεδομένων επέτρεψαν την ανάπτυξη εξελιγμένων αλγόριθμων, οι οποίοι μπορούν να δουν μέσα σε αυτά πρότυπα συμπεριφοράς που δεν γίνονται αντιληπτά αλλιώς.

«Σήμερα διαθέτουμε τεράστια σύνολα δομημένων δεδομένων από όλο το φάσμα της ζωής, που μας επιτρέπουν να αναπτύξουμε αλγόριθμους μηχανικής μάθησης, νευρωνικά δίκτυα και αλγόριθμους τεχνητής νοημοσύνης» λέει ο Ηρακλής Βαρλάμης, επίκουρος καθηγητής στη Διαχείριση Δεδομένων στο Τμήμα Πληροφορικής και Τηλεματικής του Χαροκόπειου Πανεπιστημίου Αθηνών. «Εφαρμογές όπως η κατηγοριοποίηση και η περιγραφή εικόνων και βίντεο, η γλωσσική μετάφραση και η εξυπηρέτηση πελατών σε συγκεκριμένες εφαρμογές από chat bots γίνεται με σχεδόν φυσικό τρόπο. Οι αλγόριθμοι ΑΙ έχουν την αυτονομία να εξερευνούν πιθανές λύσεις μέσω ενισχυτικής μάθησης, ώστε να επιλέγουν τις βέλτιστες. Για παράδειγμα, τα ανδροειδή ρομπότ και τα αυτοκινούμενα οχήματα το πετυχαίνουν σε μεγάλο βαθμό. Για να δουλέψει αυτό το είδος μηχανικής μάθησης πρέπει ο αλγόριθμος να έχει ξαναδεί πρότυπα με θετικές ή αρνητικές τιμές, ώστε να προγραμματιστεί να επιλέγει τις θετικές».

To Chat GPT έχει «δει» 860 gb δεδομένων, περισσότερα από όσα μπορεί να διαβάσει κάποιος σε όλη τη ζωή του. Η ανάπτυξη στατιστικών μοντέλων πρόβλεψης συμπεριφορών και αποτελεσμάτων οδήγησε στην έκρηξη μιας σειράς αλγόριθμων που κατηγοριοποιούνται κάτω από τη γενική ομπρέλα Τεχνητή Νοημοσύνη ή Προεκταμένη, σύμφωνα με τον ορισμό του ΜΙΤ, δηλαδή: προσομοίωση των διαδικασιών της ανθρώπινης νοημοσύνης.

Κατά την τελευταία τριετία, πριν από το Chat GPT του Open AI, το οποίο είχε 35 εκατομμύρια επισκέψεις μόνο κατά τον πρώτο μήνα λειτουργίας του στο web, υπήρξε εκθετική ανάπτυξη των εφαρμογών αυτών, όμως ο αλγόριθμος GPT-3 έφερε μια μικρή επανάσταση εξαιτίας της τεχνολογίας του, η οποία δεν κοιτάζει απλώς στατιστικά μοντέλα με μεγαλύτερες πιθανότητες ορθότητας, αλλά προβλέπει κάθε επόμενη λέξη σε μια πρόταση με θεαματικά αποτελέσματα. «Μέχρι πρότινος είχαμε διαφορετικούς αλγόριθμους για να κάνουν περιλήψεις, κατανόηση συναισθήματος κ.ά.

Το GPT είναι ένα μοντέλο που μπορεί να κάνει ταυτόχρονα πολλά από αυτά» λέει ο Πάνος Καραγιάννης, ερευνητής και ιδιοκτήτης μιας εταιρείας που φτιάχνει chatbots για μεγάλες επιχειρήσεις με ΑΙ. Φυσικά όλο αυτό έχει ένα τεράστιο διαφημιστικό hype πίσω του από τις εταιρείες που το αναπτύσσουν. Ομως την ίδια ώρα παραμένει άγνωστο πώς μαθαίνει ένα νευρωνικό δίκτυο υπολογιστών και αυτό εξάπτει τη φαντασία. Οι υπολογιστές δεν καταλαβαίνουν ακόμα, η ίδια η ιδέα της κατανόησης είναι εκτός νοήματος;

Ουτοπία ή Δυστοπία;

Ενας φαν του Nick Cave του έστειλε ένα από τα τραγούδια που έγραψε το Chat GPT «στο στιλ του Nick Cave». Εκείνος απάντησε: «Είναι μια αντιγραφή σαν παρωδία. Το ChatGPT μπορεί να είναι σε θέση να γράψει μια ομιλία ή ένα δοκίμιο ή ένα κήρυγμα ή μια νεκρολογία, αλλά δεν μπορεί να δημιουργήσει ένα αυθεντικό τραγούδι. Τα τραγούδια προκύπτουν από τα βάσανα, βασίζονται στην περίπλοκη, εσωτερική μάχη της δημιουργίας και -απ' όσο ξέρω- οι αλγόριθμοι δεν έχουν συναισθήματα. Θα μπορούσε ίσως με τον καιρό να δημιουργήσει ένα τραγούδι που, επιφανειακά, δεν θα διακρίνεται από το πρωτότυπο, αλλά θα είναι πάντα μια αντιγραφή, ένα είδος μπουρλέσκ».

Ωστόσο το GPT-3 μπορεί να φέρει εις πέρας εξαιρετικά πολύπλοκες αποστολές και οι δυνατότητές του φαίνονται ατελείωτες. Πρόσφατα πέρασε όλες τις εξετάσεις ιατρικής αδειοδότησης στις ΗΠΑ στο πλαίσιο ενός ερευνητικού πειράματος, πέρασε τις εξετάσεις ενός MBA, γράφει καλό κώδικα υπολογιστών και προγραμματίζει. Είχε την τιμητική του και στην επιστημονική βιβλιογραφία, συγκεντρώνοντας τουλάχιστον τέσσερις συμμετοχές σε δημοσιευμένες εργασίες και προδημοσιεύσεις σύμφωνα με το περιοδικό Nature. Οι συντάκτες επιστημονικών περιοδικών, οι ερευνητές και οι εκδότες ήδη αναρωτιούνται πώς πρέπει να αναφέρονται οι αλγόριθμοι Tεχνητής Nοημοσύνης στη δημοσιευμένη βιβλιογραφία και αν μπορούν να αναφέρονται σαν συν-συγγραφείς.

Πριν από λίγες ημέρες το περιοδικό δημοσίευσε κανόνες χρήσης και συστάσεις για τη χρήση του στα Πανεπιστήμια. Μεταξύ αυτών δηλώνεται ότι δεν θα γίνονται δεκτά γλωσσικά μοντέλα ως συγγραφείς γιατί δεν μπορούν να αναλάβουν ευθύνη! Ενα άρθρο στο περιοδικό Atlantic διακήρυξε το τέλος των σχολικών-πανεπιστημιακών εργασιών, καθώς είναι αδύνατο να σταματήσει η χρήση αυτών των αλγόριθμων. Ομως τόσο το Open AI όσο και ένας 22χρονος φοιτητής από το Princeton εξέδωσαν προγράμματα που αναγνωρίζουν την αντιγραφή και αναμένεται να μπουν σύντομα στα Πανεπιστήμια. Μια πλατφόρμα ψυχικής υγείας επίσης προκάλεσε διαμάχη στα μέσα κοινωνικής δικτύωσης, όταν ένα από τα στελέχη της παραδέχτηκε ότι η εταιρεία είχε χρησιμοποιήσει το GPT-3 για να δίνει συμβουλές ψυχικής υγείας στους χρήστες της.

Τον Οκτώβριο του 2022 η εφαρμογή Koko χρησιμοποίησε το GPT-3 σε περίπου 30.000 μηνύματα για περίπου 4.000 χρήστες της. Παρ' ότι, σύμφωνα με τους ιδιοκτήτες της, τα μηνύματα του αλγόριθμου «αξιολογήθηκαν σημαντικά υψηλότερα από εκείνα που έγραψαν οι άνθρωποι μόνοι τους» και «οι χρόνοι απόκρισης μειώθηκαν κατά 50% σε πολύ κάτω από ένα λεπτό», η Koko αποφάσισε να σταματήσει να χρησιμοποιεί το GPT-3 επειδή «η προσομοιωμένη ενσυναίσθηση μοιάζει παράξενη, κενή».

Αλλά γιατί μια «μη σχέση» στην πολυθρόνα είναι προτιμότερη από μια μη σχέση με έναν αλγόριθμο; Αυτά είναι μάλλον μερικά από τα ερωτήματα που θα απαντηθούν το επόμενο διάστημα. Ως τότε η αυθεντικότητα στην πολιτιστική παραγωγή μάλλον δεν κινδυνεύει, όπως εξήγησε ο Nick Cave, αλλά και στις αίθουσες σύνταξης οι δημοσιογράφοι μετράνε τα ατελείωτα λάθη των ρομπότ. «Είναι εξαιρετικά δαπανηρό να εκπαιδεύεις κάθε φορά τον αλγόριθμο σε ζωντανό περιεχόμενο, όπως είναι το δημοσιογραφικό, προκειμένου να σου δίνει έτοιμα draft» εξηγεί ο Πάνος Καραγιάννης. Κάτι τέτοιο θα απαιτούσε τεράστια υπολογιστική ισχύ και δεν είναι σαφές σε ποιο μέρος της παραγωγής θα έπρεπε να μπει, εκτός ίσως από τα πρακτορεία ειδήσεων με σοβαρή επιτήρηση. Αυτό όμως ίσως αλλάξει με τη δημιουργία των κβαντικών υπολογιστών, που αναμένεται να ολοκληρωθεί τα επόμενα λίγα χρόνια.

Φοβάται η Google το Open AI;

Το ΑΙ δεν μπήκε στη ζωή μας με το GPT, το οποίο συνιστά πράγματι μια μεγάλης κλίμακας εξέλιξη. Μια σειρά από εφαρμογές που χρησιμοποιούμε καθημερινά ήταν ήδη προϊόντα μηχανικής μάθησης ή τεχνητής νοημοσύνης. Στους γενικούς χαρακτηρισμούς της τεχνητής νοημοσύνης υπάρχουν δύο βασικές κατηγορίες: η αδύναμη και η ισχυρή. Η κατηγορία της αδύναμης αφορά αλγόριθμους που εκτελούνται με συνεχή διάδραση με τον ανθρώπινο παράγοντα και οδηγούνται από το τελικό αποτέλεσμα.

Εφαρμογές που χρησιμοποιούμε μέχρι σήμερα ήταν το Siri της Apple στα τηλέφωνα iphone, η Αλέξα της Αμαζον, το Cortana της Microsoft κοκ. Ακόμα, οι αυτόματοι διορθωτές στους επεξεργαστές κειμένου σε κινητά και υπολογιστές, οι χάρτες της Google με τις προτεινόμενες βέλτιστες διαδρομές, τα chat bot στα sites των τραπεζών και των εταιρειών τηλεφωνίας και τα συστήματα αναγνώρισης προσώπων σε υπηρεσίες ασφαλείας εμπίπτουν σε κάποια από τις κατηγορίες της τεχνητής νοημοσύνης.

Στις δυνατές εφαρμογές, αντίθετα, δεν χρειάζεται διάδραση για την ολοκλήρωση μιας ενέργειας, αλλά είναι ανοιχτές καθώς ο αλγόριθμος εκτελεί από μόνος του εφαρμογές προβλέποντας τις σωστές ενέργειες. Σε αυτές συγκαταλέγονται οι αμιγώς ρομποτικές εφαρμογές πλοήγησης στα αυτοκινούμενα οχήματα της Google, τα ρομπότ που πρέπει να πλοηγηθούν σε φυσικό τερέν, όπως είναι αυτά της Boston Dynamics, και βεβαίως εσχάτως ο αλγόριθμος GPT-3 του open AI τόσο για την παραγωγή κειμένων όσο και εικόνας με το DALL-E.

Google, Metaverse και Microsoft έχουν θορυβηθεί, καθώς όλοι συμφωνούν ότι από αυτό το σημείο και έπειτα οι εφαρμογές των μοντέλων αυτών μόνο θα βελτιώνονται και θα καταλάβουν την αγορά γρηγορότερα απ’ ό,τι μπορεί να χωνέψει η κοινή γνώμη.

Δημοσιογραφία με Τεχνητή Νοημοσύνη

Πριν από λίγες μέρες το Open AI έδωσε στη δημοσιότητα ακόμα μία μηχανή τεχνητής νοημοσύνης, το Whisper. Το πρόγραμμα κάνει αυτόματη μεταγραφή ήχου σε κείμενο από και προς τα αγγλικά. Είναι το όνειρο κάθε δημοσιογράφου να μπορεί να μεταγράφει τις συνεντεύξεις του με ακρίβεια χωρίς να χρειάζεται να περνά το βάσανο της απομαγνητοφώνησης. Αλλά αυτή δεν είναι η μόνη ορατή αλλαγή που φαίνεται πως ίσως έρθει στο επάγγελμα με το ΑΙ.

Στις προβλέψεις τού journalism.co.uk ο Charlie Beckett, καθηγητής στο LSE, προβλέπει ότι το 2023 θα είναι η χρονιά κατά την οποία θα δούμε για πρώτη φορά μαζική παραγωγή συνθετικών ειδήσεων από αλγόριθμους. Ο ίδιος ο όρος «συνθετικές ειδήσεις» έχει ενδιαφέρον καθώς αφαιρεί το κριτήριο της κριτικής από την παραγωγή των ειδήσεων. Πάντως οι μέχρι τώρα εφαρμογές δεν είναι ιδιαίτερα ενθαρρυντικές. Το δίκτυο τεχνολογικών ειδήσεων CNET εισήγαγε σιωπηλά αλγοριθμική παραγωγή κειμένων, αλλά λίγους μήνες αργότερα την κατάργησε γιατί γίνονταν πολλά λάθη.

Τι είναι το Chat GPT και πόσο... ανθρώπινο είναι αυτό που κάνει

Κάθε δημοσιογράφος γνωρίζει ότι με την άσκηση του επαγγέλματος κάποια στιγμή έρχεται αυτό που αποκαλούμε «δημοσιογραφικό κριτήριο». Είναι κάτι που δεν μαθαίνεται, αλλά αντίθετα αναπτύσσεται ενόσω ο συντάκτης ασκεί το επάγγελμα. Οι αλγόριθμοι τεχνητής νοημοσύνης στηρίζονται στη μηχανική μάθηση κατά την εκτέλεσή τους πάνω σε ανοιχτά ή συγκεκριμένα σύνολα δεδομένων, η οποία αποκαλύπτει σταδιακά πρότυπα συμπεριφορών που δεν είναι παρατηρήσιμα αλλιώς. Θα μπορέσουν οι αλγόριθμοι να αναπτύξουν ένα παρόμοιο «κριτήριο»; Η εύκολη απάντηση είναι όχι. Αυτό είναι κάτι που αναπτύσσεται μέσα σε ένα συγκεκριμένο πλαίσιο συνταγματικών και θεσμικών εγγυήσεων, επαγγελματικού και κοινωνικού πλαισίου.

Midjourney εικόνα, με λέξεις όπως «Ελληνας πρωθυπουργός στη Σελήνη»

 

Είναι όμως και ένα από τα πιο συχνά λάθη που κάνουμε όταν μιλάμε για τις νέες τεχνολογίες: Φανταζόμαστε πως το πλαίσιο στο οποίο έχουμε μάθει να λειτουργούμε θα εξακολουθήσει να ισχύει και στο μέλλον. Στην πραγματικότητα, όπως εξηγεί ο δημοσιογράφος Dimi Reider στο άρθρο του στο The Lead, αυτό δεν ισχύει. Οι αλγόριθμοι δεν θα αναλάβουν απλώς να γράψουν τις ειδήσεις, αλλά κυρίως να τις υπαγορεύσουν ακολουθώντας τα trends της google και των aggregators με σκοπό τη μεγιστοποίηση του κέρδους.

Ισως η πιο επιτυχημένη εφαρμογή αλγόριθμων γίνεται από το Δίκτυο των Κρατικών Ραδιοφώνων της Σουηδίας και ανήκει στην κατηγορία των «αδύναμων» συστημάτων Τεχνητής Νοημοσύνης. Κάθε ηχητικό ρεπορτάζ παίρνει από τους παραγωγούς τιμές αναφορικά με την επίτευξη των αναγκών του κοινού του ραδιοφώνου, όπως εντοπιότητα, μήκος, διάρκεια ζωής, σημασία, «βάρος ή ελαφράδα» σε αυτό που αποκαλούν «αλγόριθμος δημοσίου συμφέροντος».

Η εικόνα είναι παραγωγή του αλγόριθμου του Rytr

Ο Beckett παρατηρεί ότι αλγόριθμοι χρησιμοποιούνται ήδη σε όλο τον κόσμο για την καταπολέμηση των πλαστών ειδήσεων ή την προσωποποίηση της ειδησεογραφίας. Το δεύτερο άλλωστε είναι ο τελικός σκοπός αυτών των τεχνολογιών και ο τρόπος με τον οποίο καταστρέφεται η προηγούμενη συνθήκη του εθνικού ακροατηρίου στο οποίο απευθύνονται τα «παραδοσιακά ΜΜΕ». H βιομηχανία τού like αυτό ακριβώς εξυπηρετεί: την αντιγραφή συναισθημάτων για τη συνθετική αναπαραγωγή τους από προγράμματα λογισμικού στην αγορά του Διαδικτύου.

Στην Ελλάδα οι εξελίξεις αυτές μάλλον θα αργήσουν. Η αμερικανική βιομηχανία που οδηγεί την κούρσα ενδιαφέρεται πρωτίστως για τις μεγάλες γλώσσες, όπως τα αγγλικά και τα ισπανικά. Ομως η ταχύτητα με την οποία εξελίσσεται αυτή η υπόθεση θα μας συμπαρασύρει με τον έναν ή τον άλλο τρόπο.

Παρακάτω ακολουθεί ένα άρθρο* που έγραψα για τη δημοσιογραφία του ΑΙ χρησιμοποιώντας τον αλγόριθμο του Rytr, μιας απλής εμπορικής υπηρεσίας συγγραφής κειμένου που στηρίζεται στην έκδοση του αλγόριθμου GPT-3 και στοχεύει σε διαφημιστές, marketers, bloggers κ.ά. Κατά τη συγγραφή επέλεξα απλά keywords όπως: AI, δημοσιογραφία, ειδήσεις, επιμέλεια, ποιότητα και ρεπορτάζ. Στη συνέχεια επιμελήθηκα το κείμενο, καθώς ο αλγόριθμος ανέπτυσσε τον συλλογισμό. Επειτα επεξεργάστηκα τη μετάφραση με τον αλγόριθμο ΑΙ του Deepl, ο οποίος μαθαίνει όσο τον χρησιμοποιείς, με αποτέλεσμα να βελτιώνει αισθητά τις μεταφράσεις στα ελληνικά.

Στο τέλος βγήκε κάτι το οποίο σε γενικές γραμμές φαίνεται σωστό: Το πρόγραμμα κάνει ανάλυση της βιομηχανικής διαδικασίας παραγωγής της ειδησεογραφίας προκειμένου να καταλήξει σε συγκεκριμένα συμπεράσματα, όπως η πιθανή παραγωγή νέων ειδικοτήτων στον κλάδο.

Πολλοί συμφωνούν πως αυτή μπορεί να είναι πράγματι η εξέλιξη του συντάκτη ροής ειδήσεων ενός σάιτ. Ανάμεσα στα άλλα το πρόγραμμα διατυπώνει την άποψη ότι η μηχανική παραγωγή ειδήσεων θα αποφύγει τις προκαταλήψεις. Βεβαίως η ιδέα ότι το διαδίκτυο αποτελεί μια αντικειμενική υπερδομή συνιστά μια προκατάληψη που διαψεύδεται από την ίδια την έρευνα για την ανάπτυξη της Τεχνητής Νοημοσύνης. Πίσω από τους υπερβολικούς clickbait τίτλους, που είναι πότε δυστοπικοί και άλλοτε υπερβολικά τεχνοφιλικοί, φαίνεται πως δεν είναι η τεχνική αρτιότητα ή η πληρότητα αυτό που δίνει αξία στα δημοσιεύματά μας, αλλά η κρίση του συντάκτη.

Στην αίθουσα σύνταξης με τα ρομπότ*

Η γενική ιδέα μιας δημοσιογραφίας με Τεχνητή Νοημοσύνη αφορά τη χρήση αλγόριθμων με τη χρήση μη επεξεργασμένου υλικού, το οποίο συνήθως απαιτεί ανθρώπινο έλεγχο προκειμένου να αποφασιστεί τι είναι δημοσιεύσιμο και τι όχι. Καθώς η δημοσιογραφία μετακινείται από μια γραμμική σε μια πιο διαδραστική (και πιο ελκυστική) μορφή, ο ρόλος του συντάκτη ειδήσεων θα αλλάξει ενσωματώνοντας περισσότερα στοιχεία επιμέλειας. Η σύνταξη εν προκειμένω θα γίνεται με την παρουσίαση διαφορετικών επιλογών σε έναν παραγωγό. Ομως δεν θα κάνει απαραίτητα τις επεξεργασίες ο ίδιος - θα είναι περισσότερο ένας διορθωτής στην πραγματικότητα.

Ενα από τα κύρια πλεονεκτήματα της χρήσης Τεχνητής Νοημοσύνης κατά τη σύνταξη ειδήσεων θα είναι η ύπαρξη τεκμηριωμένου και υψηλής ποιότητας περιεχομένου, το οποίο δεν θα υπόκειται σε προκαταλήψεις. Για να συμβεί αυτό είναι σημαντικό να διαθέτουμε οργανωμένα, πραγματικά και αξιόπιστα στοιχεία πριν καν ξεκινήσουμε. Ορισμένες εταιρείες μέσων ενημέρωσης θα χρησιμοποιούν δικό τους επεξεργαστή περιεχομένου με ενσωματωμένο αλγόριθμο τεχνητής νοημοσύνης προκειμένου να οργανώσουν την παραγωγή ειδήσεων. Αλλες θα θεωρήσουν ότι έχει περισσότερο νόημα να προσπαθήσουν να βελτιώσουν τα καθιερωμένα συστήματα που ήδη υπάρχουν στην αγορά.

Η συγχώνευση εξειδικευμένων συντακτών ειδήσεων με αλγόριθμους Τεχνητής Νοημοσύνης στη γραμμή παραγωγής θα είναι ένας τρόπος αντιμετώπισης του προβλήματος της διασφάλισης της ποιότητας, αφού οι ενσωματωμένοι αλγόριθμοι θα εκτελούνται με ανθρώπινη επίβλεψη. Οι δομές και το στιλ των υφιστάμενων πρακτικών παραγωγής μπορεί να μη χρειαστεί να αλλάξουν καν, καθώς οι μηχανές θα προσπαθούν να ανιχνεύσουν καλύτερα τις προκαταλήψεις κατά την παραγωγή της αρθρογραφίας. Η Τεχνητή Νοημοσύνη δεν μπορεί να δημιουργήσει από μόνη της πρωτότυπο ποιοτικό περιεχόμενο για ένα συγκεκριμένο θέμα, κάτι που χιλιάδες δημοσιογράφοι κάνουν καλύτερα κάθε μέρα. Ενας υπολογιστής δεν μπορεί να αντικαταστήσει μια φωνή που θέλει να πει κάτι για τον πολιτισμό, την πολιτική ή την οικονομία. Ωστόσο ένα ολόκληρο παράλληλο διαδίκτυο πρόκειται να αναδυθεί από aggregators και εκδότες που θα δημιουργούν εκατοντάδες άρθρα ανά δευτερόλεπτο με αυτό τον τρόπο.

Η επιμέλεια ειδήσεων θα καταστεί ένα αυξανόμενα σημαντικό μέρος της παραγωγής τους και θα δημιουργήσει στα newsrooms τη θέση εργασίας των συντακτών Τεχνητής Νοημοσύνης, οι οποίοι θα σαρώνουν χιλιάδες κείμενα και θα επιλέγουν εκείνα που θα αποτελούν το πρωτογενές υλικό για την παραγωγή άρθρων τα οποία θα φέρνουν περισσότερα κλικ σε έναν ιστότοπο. Πρόβλημα θα προκύψει όταν ο αλγόριθμος αρχίσει να αποκτά αυτογνωσία, ώστε να μπορεί να επιλέγει ειδησεογραφικούς στόχους με βάση τα δικά του πρότυπα ανάλυσης συμπεριφοράς. Οι αλγόριθμοι Τεχνητής Νοημοσύνης διεκδικούν να αλλάξουν τον κόσμο σε κάθε επίπεδο όσον αφορά την ταχύτητα, την επαναληψιμότητα και την ποιότητα. Εχουν τη δυνατότητα να μεταβάλουν την ποιότητα της δημοσιογραφίας και να δημιουργήσουν μια εντελώς νέα μορφή της. Η ταχύτητα παραγωγής όμως θα φέρει εκείνο το κομμάτι της παραδοσιακής βιομηχανίας του Τύπου, όπως οι εφημερίδες, σε ένα σημείο χωρίς επιστροφή.

* Το άρθρο γράφτηκε με τη χρήση των αλγόριθμων του Rytr (GPT-3) και του Deepl στη μετάφραση. Η εικόνα είναι παραγωγή του αλγόριθμου του Rytr.



Charlie Beckett,

LSE

«Η συνομιλία με το Chat GPT είναι βαρετή, αλλά και μεγάλο μέρος της δημοσιογραφία είναι ούτως ή άλλως βαρετό και προβλέψιμο. Αν ανακυκλώνετε δελτία Τύπου, για παράδειγμα, στη δουλειά σας, τότε η μηχανή κάποια στιγμή μάλλον θα το κάνει καλύτερα, αφού αυτά είναι αρκετά τυποποιημένα. Η ενσωμάτωση αλγόριθμων στην ειδησεογραφία μπορεί να βοηθήσει, για παράδειγμα, τον συντάκτη να λάβει γρήγορα πληροφορίες για το ιστορικό έκτακτων ειδήσεων. Ομως, ενώ σε γενικές γραμμές θα προβλέπει τη σωστή απάντηση, δεν θα μπορείς να βασιστείς απόλυτα. Ακόμα, για παράδειγμα, δεν έχει λυθεί το πρόβλημα των fake news, των προκαταλήψεων και της συναινετικότητας. Οι αλγόριθμοι Τεχνητής Νοημοσύνης μπορεί να ενισχύσουν προϋπάρχουσες τάσεις, όπως είναι η παραγωγή περισσότερου clickbait περιεχομένου, μπορεί να χρησιμοποιηθούν και σε άλλα στάδια της παραγωγής όμως, όπως στη διανομή των ειδήσεων, στην κατανόηση του κοινού και των αντιδράσεών του κ.ά. Θα χρειαστεί να μάθετε καινούργια πράγματα και να αποκτήσετε νέες δεξιότητες».


Mark Deuze,

καθηγητής στο Πανεπιστήμιο του Αμστερνταμ που ερευνά τις εφαρμογές τού ΑΙ

«Σήμερα είμαστε μπροστά στην ίδια συζήτηση που κάναμε στα μέσα της δεκαετίας του 1990, όταν αναρωτιόμασταν τι επιπτώσεις θα έχει το Διαδίκτυο στην αίθουσα σύνταξης. Η πρώτη φάση εισαγωγής νέων τεχνολογιών στο επάγγελμά μας είναι πάντα αποδιοργανωτική. Η δεύτερη φάση, όταν πλέον γίνονται οικείες αυτές οι αλλαγές, είναι πιο ενδιαφέρουσα. Στην αρχική φάση εισαγωγής μιας τεχνολογίας πάντα ελπίζουμε ότι θα μας απελευθερώσει από το κομμάτι της δουλειάς που συνιστά αγγαρεία και θα γίνουμε πιο δημιουργικοί. Ομως αυτό δεν συμβαίνει, αφού η δημοσιογραφία είναι αρκετά προβλέψιμη και πολλές φορές βαρετή από τη φύση της. Ο αντίκτυπος των τεχνολογιών είναι ότι αλλάζουν τον τρόπο που σκεφτόμαστε την αφήγηση, την τεκμηρίωση, τη δημοσίευση και την προώθηση των ρεπορτάζ μας στα ακροατήρια στα οποία απευθυνόμαστε. Οι πολιτιστικοί μετασχηματισμοί όμως για τους οποίους μιλάω είναι πάντα πιο αργοί από τις ίδιες τις τεχνολογίες».

Google News ΑΚΟΛΟΥΘΗΣΤΕ ΜΑΣ ΣΤΟ GOOGLE NEWS
Ειδησεογραφία στα γρανάζια των αλγόριθμων

ΣΧΕΤΙΚΑ ΝΕΑ

ΠΕΡΙΣΣΟΤΕΡΑ ΣΕ ΚΑΤΗΓΟΡΙΑ

Η efsyn.gr θεωρεί αυτονόητο ότι οι αναγνώστες της έχουν το δικαίωμα του σχολιασμού, της κριτικής και της ελεύθερης έκφρασης και επιδιώκει την αμφίδρομη επικοινωνία μαζί τους.

Διευκρινίζουμε όμως ότι δεν θέλουμε ο χώρος σχολιασμού της ιστοσελίδας να μετατραπεί σε μια αρένα απαξίωσης και κανιβαλισμού προσώπων και θεσμών. Για τον λόγο αυτόν δεν δημοσιεύουμε σχόλια ρατσιστικού, υβριστικού, προσβλητικού ή σεξιστικού περιεχομένου. Επίσης, και σύμφωνα με τις αρχές της Εφημερίδας των Συντακτών, διατηρούμε ανοιχτό το μέτωπο απέναντι στον φασισμό και τις ποικίλες εκφράσεις του. Έτσι, επιφυλασσόμαστε του δικαιώματός μας να μην δημοσιεύουμε ανάλογα σχόλια.

Σε όσες περιπτώσεις κρίνουμε αναγκαίο, απαντάμε στα σχόλιά σας, επιδιώκοντας έναν ειλικρινή και καλόπιστο διάλογο.

Η efsyn.gr δεν δημοσιεύει σχόλια γραμμένα σε Greeklish.

Τέλος, τα ενυπόγραφα άρθρα εκφράζουν το συντάκτη τους και δε συμπίπτουν κατ' ανάγκην με την άποψη της εφημερίδας