Image default
Υγεία

Η τεχνητή νοημοσύνη δεν έχει συνείδηση, ούτε ευθύνη


Ο σύγχρονος άνθρωπος ελέγχει τον καρδιακό ρυθμό του στο smartwatch, αναζητά πληροφορίες στο ChatGPT και προσπαθεί να ερμηνεύσει τα δεδομένα για την υγεία του.

Οι νέες τεχνολογίες υπόσχονται μια εποχή αυτοφροντίδας, όπου ο καθένας μπορεί να παρακολουθεί την υγεία του και να παίρνει αποφάσεις. Όμως, όπως συμβαίνει συχνά με τις υποσχέσεις της τεχνολογίας, η πραγματικότητα είναι πιο σύνθετη.

Η επανάσταση των wearables

Η τεχνολογία των συσκευών που φοράμε πάνω μας και μας δίνουν δεδομένα για την υγεία μας, έχει ήδη αλλάξει την ιατρική επιτήρηση. Η Apple Heart Study του Πανεπιστημίου Στάνφορντ, με πάνω από 419.000 συμμετέχοντες, έδειξε ότι το ρολόι της Apple μπορεί να εντοπίσει πιθανή κολπική μαρμαρυγή με αξιόπιστο τρόπο, προειδοποιώντας τους χρήστες να αναζητήσουν ιατρική αξιολόγηση (New England Journal of Medicine, 2019).

Το εύρημα αυτό άνοιξε τον δρόμο για νέες συσκευές που παρακολουθούν καρδιακή λειτουργία, ύπνο, ακόμη και οξυγόνωση αίματος.

Παράλληλα, οι συνεχείς μετρητές γλυκόζης (CGM) —όπως τα Dexcom και FreeStyle Libre— έχουν αποδειχθεί αποτελεσματικοί στη βελτίωση του γλυκαιμικού ελέγχου σε άτομα με διαβήτη τύπου 1 και 2 (JAMA, 2022). Οι μελέτες δείχνουν ότι η συνεχής παρακολούθηση μειώνει τις υπογλυκαιμίες και ενισχύει τη συμμόρφωση του ασθενούς.

Πέρα από την ασθένεια, η παρακολούθηση ύπνου, βημάτων και δραστηριότητας έχει αποδειχθεί ότι βοηθά τους χρήστες να βελτιώνουν τη φυσική τους κατάσταση και να υιοθετούν πιο υγιεινές συνήθειες. Η συνεχής ανατροφοδότηση λειτουργεί ως κίνητρο, υποστηρίζουν οι μελέτες.

Ωστόσο, όπως σημειώνει πρόσφατη μετα-ανάλυση στο Nature Digital Medicine (2023), η ακρίβεια των δεδομένων διαφέρει σημαντικά ανάλογα με τη συσκευή και τις συνθήκες μέτρησης — ειδικά στις εφαρμογές ύπνου, όπου τα wearables συχνά υποεκτιμούν τη διάρκεια των βαθιών σταδίων ύπνου.

ChatGPT και αυτοδιάγνωση: νέα εποχή, παλιοί κίνδυνοι

Η είσοδος του ChatGPT και των μεγάλων γλωσσικών μοντέλων (LLMs) στην καθημερινή χρήση άλλαξε τον τρόπο που οι άνθρωποι αναζητούν ιατρικές πληροφορίες. Μια μελέτη του Πανεπιστημίου της Καλιφόρνιας (JAMA Internal Medicine, 2023) έδειξε ότι οι απαντήσεις του ChatGPT σε ιατρικά ερωτήματα αξιολογήθηκαν ως πιο εμπεριστατωμένες και με πιο “ανθρώπινο” τόνο από αυτές επαγγελματιών υγείας στο Reddit.

Ωστόσο, οι ερευνητές προειδοποίησαν: η ποιότητα δεν ισοδυναμεί πάντα με ακρίβεια.

Άλλες μελέτες έδειξαν ότι το ChatGPT μπορεί να περάσει τις ιατρικές εξετάσεις των ΗΠΑ (USMLE), αλλά κάνει σοβαρά λάθη όταν τίθενται πραγματικά κλινικά σενάρια. Το JAMA Network Open (2024) κατέγραψε ότι το GPT-4 έδωσε σωστές απαντήσεις στο 85% των περιπτώσεων, αλλά σε 15% —δηλαδή σε περίπου μία στις έξι— παρείχε δυνητικά επικίνδυνες ή ανακριβείς οδηγίες.

Και η ζημιά δεν είναι θεωρητική. Το 2024, οι Annals of Internal Medicine: Clinical Cases δημοσίευσαν ένα πραγματικό περιστατικό: ένας 60χρονος άνδρας αντικατέστησε το μαγειρικό αλάτι με βρωμιούχο νάτριο, έπειτα από συμβουλή που του έδωσε chatbot, με αποτέλεσμα να εμφανίσει σοβαρή δηλητηρίαση και ψυχωσικά συμπτώματα (bromism). Η υπόθεση έγινε σύμβολο του κινδύνου της «τυφλής εμπιστοσύνης» στην τεχνητή νοημοσύνη.

Όταν η τεχνολογία σε ξεγελά

Το βασικό πρόβλημα είναι η ψευδαίσθηση ακρίβειας. Τα μοντέλα τεχνητής νοημοσύνης «μιλούν» με αυτοπεποίθηση, ακόμη κι όταν κάνουν λάθος. Αυτό ενισχύει την τάση των χρηστών να τα εμπιστεύονται υπερβολικά — φαινόμενο που οι ειδικοί αποκαλούν “automation bias”.
Αντίστοιχα, τα wearables δίνουν την αίσθηση πλήρους ελέγχου, αλλά συχνά λειτουργούν με αλγορίθμους μη κλινικής πιστοποίησης. Ένα smartwatch δεν μπορεί να υποκαταστήσει ένα ηλεκτροκαρδιογράφημα· ούτε το ChatGPT μπορεί να εκτιμήσει τη σοβαρότητα ενός συμπτώματος με βάση το ιστορικό, τη φαρμακευτική αγωγή και τις συννοσηρότητες.

Ο FDA στις ΗΠΑ έχει ήδη καταρτίσει ειδική λίστα με εγκεκριμένα AI/ML ιατρικά λογισμικά, προειδοποιώντας ότι κάθε εφαρμογή που δίνει θεραπευτικές ή διαγνωστικές οδηγίες πρέπει να περνά από αξιολόγηση ασφαλείας. Τα περισσότερα δημοφιλή wearables, ωστόσο, κατατάσσονται ως “wellness devices”, όχι ως ιατρικές συσκευές.

Πώς να τα χρησιμοποιείτε με ασφάλεια – Τι πρέπει να γνωρίζετε

  • Χρησιμοποίησέ τα για ενημέρωση, όχι για διάγνωση.
  • Αν μια απάντηση ή μια μέτρηση σε ωθεί να αλλάξεις φάρμακο ή διατροφή, συμβουλέψου γιατρό.
  • Έλεγξε τις πηγές.
  • Το ChatGPT μπορεί να παραθέσει έρευνες, αλλά ο χρήστης πρέπει να επαληθεύει αν είναι πραγματικές. Οι hallucinations —οι «ψευδείς» αναφορές— είναι συχνό φαινόμενο.
  • Διάβασε την πολιτική απορρήτου.
  • Τα wearables συλλέγουν ευαίσθητα δεδομένα, και πολλές εταιρείες τα μοιράζονται με τρίτους για εμπορικούς λόγους.
  • Χρησιμοποίησε τα δεδομένα ως αφορμή για διάλογο με τον γιατρό σου.
  • Οι δείκτες ύπνου, άγχους ή καρδιακού ρυθμού μπορούν να αποτελέσουν χρήσιμα εργαλεία παρακολούθησης, εφόσον αξιολογηθούν από επαγγελματία.

Η επόμενη μέρα της αυτοφροντίδας

Η τεχνητή νοημοσύνη και τα wearables δεν είναι απλώς εργαλεία ευκολίας. Μπορούν να μεταμορφώσουν τη σχέση του ανθρώπου με την υγεία του. Η αξία τους είναι τεράστια — αρκεί να χρησιμοποιούνται με κριτική διάθεση και προσοχή.

Η αυτοφροντίδα του μέλλοντος ίσως περιλαμβάνει το ChatGPT να αναλύει τις τιμές του σακχάρου από το smartwatch και να προτείνει εξατομικευμένες συνήθειες. Όμως, για να μην μετατραπεί αυτό το όραμα σε παγίδα, πρέπει να θυμόμαστε ότι η τεχνητή νοημοσύνη δεν έχει συνείδηση, ούτε ευθύνη.

Το ανθρώπινο στοιχείο —η κρίση, η ενσυναίσθηση, η εμπειρία— παραμένει αναντικατάστατο.

Η τεχνολογία μπορεί να μας δείξει τον δρόμο· αλλά η πυξίδα πρέπει να είναι πάντα ανθρώπινη.



ΠΗΓΗ

Related posts

Αρθροπλαστική ώμου με σύστημα πλοήγησης επαυξημένης πραγματικότητας

admin

Γιατί οι γυναίκες κινδυνεύουν περισσότερο από τους άνδρες

admin

Τι πρέπει να γνωρίζει ο ασθενής για τις επεμβάσεις του παχέος εντέρου

admin

Αφήστε ένα σχόλιο