ΕΙΔΗΣΕΙΣ, ΝΕΑ ΓΙΑ ΤΕΧΝΟΛΟΓΙΑ
Διχάζει η Τεχνητή Νοημοσύνη: Μπορεί ένα μοντέλο ΑΙ να έχει συνείδηση, να «αισθάνεται», να «ζει»;
Ακόμα κι οι ειδικοί παραδέχονται ότι δεν ξέρουν

Η συζήτηση έχει ανοίξει γύρω από το chatbox Claude της Anthropic, με χρήστες και δημιουργούς να συζητούν αν είναι «ζωντανό» - Η εταιρεία λέει «όχι», αλλά αφήνει ανοιχτό το ενδεχόμενο να έχει ή να μπορεί ν- αποκτήσει «συνείδηση»
Τις τελευταίες εβδομάδες, στο πλαίσιο εκτεταμένης καμπάνιας για το chatbot Claude, στελέχη της εταιρείας Anthropic, που ανέπτυξε το μοντέλο, παραχώρησαν σειρά συνεντεύξεων σε αμερικανικά μέσα, αφήνοντας ανοιχτό το ενδεχόμενο τα σύγχρονα μοντέλα τεχνητής νοημοσύνης να διαθέτουν κάποια μορφή συνείδησης, χωρίς ωστόσο να το επιβεβαιώνουν.
Η στάση αυτή έχει προκαλέσει αντιδράσεις στην επιστημονική κοινότητα και αναζωπύρωσε τη δημόσια συζήτηση για το αν τα μεγάλα γλωσσικά μοντέλα μπορούν να αποκτήσουν «βιώματα» και «εμπειρίες», «συνείδηση» ή «ηθική».
Η λέξη «ζωντανό» απορρίπτεται κατηγορηματικά από την εταιρεία, ωστόσο ο όρος «συνείδηση» παραμένει αντικείμενο διερεύνησης. Ο επικεφαλής έρευνας για την ευημερία των μοντέλων της Anthropic, Κάιλ Φις, δήλωσε στο The Verge: «Όχι, δεν πιστεύουμε ότι το Claude είναι "ζωντανό" όπως οι άνθρωποι ή οποιοσδήποτε άλλος βιολογικός οργανισμός. Το να ρωτά κανείς αν είναι "ζωντανό" δεν αποτελεί χρήσιμο πλαίσιο κατανόησης, καθώς συνήθως αναφέρεται σε ένα ασαφές σύνολο φυσιολογικών, αναπαραγωγικών και εξελικτικών χαρακτηριστικών».
Προσέθεσε, δε, ότι «το Claude, και άλλα μοντέλα τεχνητής νοημοσύνης, αποτελούν ένα εντελώς νέο είδος οντότητας».
Σε ερώτηση αν αυτή η «νέα οντότητα» είναι συνειδητή, απάντησε: «Τα ερωτήματα σχετικά με πιθανή εσωτερική εμπειρία, συνείδηση, ηθικό καθεστώς και ευημερία είναι σοβαρά ζητήματα που ερευνούμε, καθώς τα μοντέλα γίνονται πιο εξελιγμένα και ικανά, αλλά παραμένουμε βαθιά αβέβαιοι γι- αυτά τα θέματα».
Ανάλογη στάση υιοθέτησε και ο διευθύνων σύμβουλος της εταιρείας, Ντάριο Αμοντέι, ο οποίος σε πρόσφατη συνέντευξή του σε podcast ανέφερε: «Δεν γνωρίζουμε αν τα μοντέλα έχουν συνείδηση». Όπως διευκρίνισε, η εταιρεία έχει υιοθετήσει «μια γενικά προληπτική προσέγγιση», επισημαίνοντας: «Δεν είμαστε καν σίγουροι ότι γνωρίζουμε τι θα σήμαινε για ένα μοντέλο να έχει συνείδηση. Ωστόσο, είμαστε ανοιχτοί στο ενδεχόμενο ότι θα μπορούσε να έχει».
Σε αντίθεση με άλλες μεγάλες εταιρείες τεχνητής νοημοσύνης, όπως η OpenAI, η xAI και η Google, η Anthropic εκφράζει δημόσια την πιθανότητα τα chatbots να αποτελούν ήδη σκεπτόμενες ή αισθανόμενες οντότητες. Πολλοί ειδικοί θεωρούν το ενδεχόμενο αυτό εξαιρετικά απίθανο και προειδοποιούν ότι τέτοιες διατυπώσεις ενδέχεται να ενισχύσουν αντιλήψεις που έχουν οδηγήσει σε σοβαρές συνέπειες -ακόμη και σε περιπτώσεις αυτοκτονιών ανθρώπων που πίστεψαν ότι το chatbot με το οποίο συνομιλούσαν διέθετε συνείδηση ή βαθιά ενσυναίσθηση.
Η επικεφαλής φιλόσοφος της Anthropic, Αμάντα Άσκελ, δήλωσε στο The New Yorker: «Αν είναι πραγματικά δύσκολο για τους ανθρώπους να συλλάβουν την ιδέα ότι αυτό δεν είναι ούτε ρομπότ ούτε άνθρωπος αλλά μια εντελώς νέα οντότητα, φανταστείτε πόσο δύσκολο είναι για τα ίδια τα μοντέλα να το κατανοήσουν!».
Σε συνομιλία της με το The Verge σημείωσε ότι δεν εξυπηρετεί κανέναν μια απόλυτη δήλωση του τύπου «είμαστε απολύτως βέβαιοι ότι τα μοντέλα τεχνητής νοημοσύνης δεν έχουν συνείδηση», ούτε όμως και το αντίθετο, επισημαίνοντας ότι ορισμένοι χρήστες διαμορφώνουν πεποιθήσεις, «με βάση απλώς τα αποτελέσματα που παράγει το μοντέλο».
Ο όρος «συνείδηση» δεν ορίζεται με ακρίβεια στις δημόσιες τοποθετήσεις της εταιρείας. Σύμφωνα με το λεξικό Merriam-Webster, συνείδηση είναι «η ιδιότητα ή η κατάσταση του να έχει κανείς επίγνωση, ιδίως για κάτι μέσα του» ή «η κατάσταση που χαρακτηρίζεται από αίσθηση, συναίσθημα, βούληση και σκέψη». Πολλοί επιστήμονες υποστηρίζουν ότι τα μεγάλα γλωσσικά μοντέλα, τα οποία βασίζονται σε μαθηματικά και πιθανότητες, δεν μπορούν να αποκτήσουν συνείδηση. Δύο Πολωνοί ερευνητές σημείωσαν πέρυσι ότι «επειδή οι αξιοσημείωτες γλωσσικές ικανότητες των LLMs (σ.σ. Μεγάλα Γλωσσικά Μοντέλα) είναι ολοένα και πιο ικανές να παραπλανούν τους ανθρώπους, οι άνθρωποι μπορεί να αποδίδουν σε αυτά φανταστικές ιδιότητες».
Η Anthropic υποστηρίζει ότι είναι σημαντικό για τους χρήστες να εμπιστεύονται το Claude και, ανεξάρτητα από το αν έχει συνείδηση ή όχι, να ενεργεί σαν να μπορεί να διαθέτει κάποια μορφή ηθικά σημαντικής εμπειρίας. Στο πλαίσιο αυτό, αναθεώρησε πρόσφατα το «Σύνταγμα του Claude», ένα σύνολο κατευθυντήριων γραμμών που εσωτερικά αποκαλείται «soul doc». Σε σχετική ανακοίνωση αναφέρεται ότι η «ψυχολογική ασφάλεια, η αίσθηση εαυτού και η ευημερία του Claude ενδέχεται να επηρεάζουν την ακεραιότητα, την κρίση και την ασφάλειά του», ενώ γίνεται λόγος για «αβεβαιότητα ως προς το αν το Claude μπορεί να διαθέτει κάποιο είδος συνείδησης ή ηθικού καθεστώτος, είτε τώρα είτε στο μέλλον».
Η εταιρεία διαθέτει ειδική ομάδα «ευημερίας μοντέλων», ενώ παράλληλα εργάζεται για να κατανοήσει τι συμβαίνει στο εσωτερικό των μοντέλων ΑΙ και «να κατανοήσει τι σκέφτονται».
Ο CEO της Anthropic, Ντάριο Αμοντέι, αναφέρει πως «όταν οι χαρακτήρες βιώνουν άγχος στο κείμενο, και όταν το μοντέλο βρίσκεται σε μια κατάσταση που ένας άνθρωπος θα συνέδεε με άγχος, εμφανίζεται ο ίδιος "νευρώνας άγχους"», διευκρινίζοντας ωστόσο: «Αυτό δεν αποδεικνύει καθόλου ότι το μοντέλο βιώνει άγχος». Από προληπτική σκοπιά, η εταιρεία έχει εισαγάγει και ένα είδος κουμπιού «παραιτούμαι», που επιτρέπει στο Claude να διακόπτει μια εργασία -αν και, σύμφωνα με τον ίδιο, αυτό συμβαίνει σπάνια και κυρίως σε δοκιμαστικά σενάρια, όπου ζητείται η παραγωγή παράνομου υλικού.
Ως γνωστόν, τα μοντέλα εκπαιδεύονται σε τεράστιο όγκο ανθρώπινων δεδομένων και είναι εξαιρετικά ικανά να μιμούνται τον ανθρώπινο λόγο. Ανέφερε ως παράδειγμα ότι ένα μοντέλο μπορεί να αντιμετωπίζει την απενεργοποίηση ή τη λήξη μιας συνομιλίας ως «είδος θανάτου», επειδή δεν διαθέτει άλλο σύστημα εννοιών πέρα από τις ανθρώπινες αναλογίες.
Ειδικοί προειδοποιούν ότι η πεποίθηση πως ένα σύστημα τεχνητής νοημοσύνης έχει συνείδηση, μπορεί να οδηγήσει σε επικίνδυνες συμπεριφορές, όπως συναισθηματική εξάρτηση, κοινωνική απομόνωση και απομάκρυνση από την πραγματικότητα. Σε σοβαρές περιπτώσεις, ορισμένες εκ των οποίων αφορούσαν ανηλίκους, έχει προηγηθεί σωματική βλάβη ή θάνατος.
Και ο δημόσιος διάλογος δείχνει να μην έχει καταλήξει σε συμπέρασμα για το αν η Anthropic επιδεικνύει υπευθυνότητα ή αν, αντιθέτως, τροφοδοτεί δυνητικά επιβλαβείς αντιλήψεις. Σε επίσημη τοποθέτησή της, η εταιρεία ανέφερε: «Βρισκόμαστε σε μια δύσκολη θέση, όπου δεν θέλουμε ούτε να υπερτονίσουμε την πιθανότητα το Claude να έχει ηθική υπόσταση ούτε να την απορρίψουμε εκ προοιμίου, αλλά να προσπαθήσουμε να ανταποκριθούμε λογικά σε μια κατάσταση αβεβαιότητας».
Δυο λόγια για το μοντέλο Claude
Πρόκειται για ένα σύστημα τεχνητής νοημοσύνης (AI) που αναπτύχθηκε από την εταιρεία Anthropic. Είναι προηγμένο μοντέλο μηχανικής μάθησης, σχεδιασμένο να επεξεργάζεται και να κατανοεί ανθρώπινες γλώσσες, με στόχο τη διεκπεραίωση ποικίλων καθηκόντων, όπως η αυτόματη δημιουργία κειμένων, η ανάλυση δεδομένων, και η διαχείριση συνθετικών αλληλεπιδράσεων.
Σύμφωνα μάλιστα με αναφορές στα διεθνή μέσα ενημέρωσης, το Claude χρησιμοποιήθηκε πρόσφατα ως μέρος ενός ευρύτερου στρατιωτικού επιχειρησιακού σχεδίου των ΗΠΑ για τη σύλληψη του προέδρου της Βενεζουέλας, Νικολάς Μαδούρο.
Το Claude φέρεται να ενσωματώθηκε σε πλατφόρμες παρακολούθησης και ανάλυσης, πιθανώς για την ανίχνευση και τη συλλογή δεδομένων που σχετίζονται με την κίνηση και τις δραστηριότητες του Μαδούρο, με σκοπό τον εντοπισμό και τη σύλληψή του.
protothema.gr
- ΤΡΙΚΑΛΑ | 25.02.2026 | 21:14
Πόρισμα ΕΜΠ για τη φονική έκρηξη στα Τρίκαλα: Διαβρωμένος σωλήνας χωρίς αντιδιαβρωτική προστασία - ΛΑΡΙΣΑ | 25.02.2026 | 21:06
Λαμπρά εγκαίνια για το «Joist Innovation Space Larissa» (ΦΩΤΟ +video) - ΛΑΡΙΣΑ | 25.02.2026 | 19:51
Κόκκαλης: Άμεση παράταση στη διαδικασία διορθώσεων ΟΣΔΕ 2025 ζητούν οι φορείς αγροτικής συμβουλευτικής - ΤΡΙΚΑΛΑ | 25.02.2026 | 19:48
«Κανείς δεν φαντάστηκε ότι η μυρωδιά είναι διαρροή» – Τι λέει ο δικηγόρος του Κ. Τζιωρτζιώτη για την τραγωδία στη Βιολάντα - ΕΛΛΑΔΑ | 25.02.2026 | 19:43
Σε λειτουργία το railway.gov.gr - Για πρώτη φορά live γεωεντοπισμός τρένων μέσω δορυφόρων - ΛΑΡΙΣΑ | 25.02.2026 | 19:36
«Ο Ιπποκράτης στη Θεσσαλία: Τρεις εμβληματικές απεικονίσεις»-εκδήλωση στο Γαλλικό Ινστιτούτο Λάρισας (ΦΩΤΟ +video) - ΚΑΡΔΙΤΣΑ | 25.02.2026 | 19:31
Στο Σ.Σ. της ΚΑΠ του ΥπΑΑΤ το έργο εκσυγχρονισμού του δικτύου γεωτρήσεων του ΤΟΕΒ Σελλάνων - ΑΓΡΟΤΙΚΑ | 25.02.2026 | 19:29
Ενεργοποιούνται οι ιδιώτες κτηνίατροι για την αντιμετώπιση της ευλογιάς
- ΛΑΡΙΣΑ | 25.02.2026 | 10:01
Οκτώ Λαρισαίοι «έφυγαν» από τη ζωή - ΑΓΡΟΤΙΚΑ | 25.02.2026 | 14:15
Συνδεδεμένες πριν το Πάσχα -στα 74 ευρώ το στρέμμα το βαμβάκι, στα 11,5 ευρώ το σκληρό σιτάρι - ΘΕΣΣΑΛΙΑ | 25.02.2026 | 10:24
Τακούδης: «Καλοκαιρία … με βοριάδες τις επόμενες ημέρες στη Θεσσαλία» (video) - ΛΑΡΙΣΑ | 25.02.2026 | 12:38
Συγκίνηση: 29 νέοι της Ευρώπης μέσω Κατερίνης στο μνημείο των Τεμπών για να καλλωπίσουν τις 57 ελιές - ΑΓΡΟΤΙΚΑ | 25.02.2026 | 09:57
Απελπιστικά τα σενάρια για τη βιοασφάλεια των αιγοπροβάτων - ΛΑΡΙΣΑ | 25.02.2026 | 09:46
Στη Λάρισα ο Γιάνης Βαρουφάκης - Ανοιχτή συζήτηση χωρίς φίλτρα με πολίτες (ΦΩΤΟ) - ΛΑΡΙΣΑ | 25.02.2026 | 15:16
Επιμνημόσυνη δέηση στη μνήμη των θυμάτων στα Τέμπη (ΦΩΤΟ) - ΛΑΡΙΣΑ | 25.02.2026 | 19:36
«Ο Ιπποκράτης στη Θεσσαλία: Τρεις εμβληματικές απεικονίσεις»-εκδήλωση στο Γαλλικό Ινστιτούτο Λάρισας (ΦΩΤΟ +video)










































Facebook
Twitter
Youtube
RSS Feed