Η χρήση της Τεχνητής Νοημοσύνης (AI) στην καθημερινότητα αυξάνεται ραγδαία. Από εφαρμογές chatbot μέχρι εργαλεία παραγωγικότητας, πολλοί αναρωτιούνται: Κατά τη διάρκεια της αλληλεπίδρασης με την AI, δημιουργείται ένα είδος «ψυχογραφήματος» του χρήστη; Και αν ναι, τι συμβαίνει με αυτά τα δεδομένα;
Τι σημαίνει «ψυχογράφημα» στην πράξη
Ο όρος ψυχογράφημα παραπέμπει σε μια ανάλυση της προσωπικότητας, των συνηθειών και των προτιμήσεων ενός ατόμου. Στην περίπτωση της AI, δεν μιλάμε για «διάβασμα σκέψεων», αλλά για μοτίβα που προκύπτουν μέσα από τις ερωτήσεις και τις απαντήσεις.
Για παράδειγμα, αν ένας χρήστης ρωτά συχνά για επιχειρηματικά θέματα, μπορεί να προκύψει ότι σχετίζεται με αυτόν τον χώρο.
Αν ζητά συμβουλές για συνταγές ή ταξίδια, δημιουργείται μια “εικόνα” για τα ενδιαφέροντά του.
Τι δεδομένα πηγαίνουν στο cloud
Οι περισσότερες πλατφόρμες AI λειτουργούν μέσω cloud. Αυτό σημαίνει ότι:
- Οι ερωτήσεις και οι απαντήσεις αποστέλλονται σε απομακρυσμένους servers για να επεξεργαστούν από τα μοντέλα.
- Σε κάποιες περιπτώσεις, αυτά τα δεδομένα μπορεί να χρησιμοποιούνται (ανώνυμα) για βελτίωση των συστημάτων.
- Δεν αποστέλλονται «κρυφά» προσωπικά αρχεία από τη συσκευή, αλλά μόνο ό,τι πληκτρολογεί ή υπαγορεύει ο χρήστης.
Οι πιθανοί κίνδυνοι
- Προσωπικά δεδομένα: Αν ένας χρήστης αποκαλύπτει ονόματα, τηλέφωνα ή οικονομικές λεπτομέρειες, αυτά θεωρούνται ευαίσθητα.
- Εμμέσως ευαίσθητες πληροφορίες: Ακόμη και χωρίς άμεση αποκάλυψη, τα μοτίβα αλληλεπίδρασης μπορούν να σκιαγραφήσουν τον τρόπο σκέψης μας.
- Εμπορική χρήση: Σε ορισμένες πλατφόρμες, τα δεδομένα μπορεί να αξιοποιηθούν για εμπορικούς σκοπούς (στοχευμένη διαφήμιση κ.λπ.).
Τα οφέλη της προσωποποίησης
Από την άλλη πλευρά, αυτή η «σκιαγράφηση» του χρήστη μπορεί να προσφέρει θετικά, ανάλογα πως το βλέπει κανείς:
- Εξατομικευμένες απαντήσεις που ταιριάζουν περισσότερο στις ανάγκες μας.
- Εργαλεία που «μαθαίνουν» το στυλ και τις προτιμήσεις μας, βελτιώνοντας την εμπειρία.
Τι μπορεί να κάνει ο χρήστης
- Σκέψου πριν μοιραστείς: Μην δίνεις ευαίσθητα προσωπικά δεδομένα στην AIαν δεν υπάρχει σοβαρός λόγος.
- Διάβασε τις πολιτικές: Κάθε πλατφόρμα αναφέρει (συνήθως με μεγάλα κείμενα νομικής φύσης) τι κάνει με τα δεδομένα.
- Διάλεξε το εργαλείο που σου ταιριάζει: Υπάρχουν συστήματα που δίνουν μεγαλύτερη έμφαση στην ιδιωτικότητα.
- Χρησιμοποίησε μη υπαρκτά παραδείγματα: Αν χρειάζεσαι βοήθεια σε επαγγελματικά θέματα, χρησιμοποίησε σενάρια χωρίς προσωπικά δεδομένα.
Οπότε όχι. Η αλήθεια βρίσκεται κάπου στη μέση. Τα συστήματα AI δεν «διαβάζουν» τη ψυχή μας (ακόμα;;; ), αλλά μέσα από τα δεδομένα που εμείς δίνουμε σχηματίζεται ένα προφίλ που μπορεί να μοιάζει με ψυχογράφημα. Η σωστή ενημέρωση και η συνειδητή χρήση είναι τα καλύτερα εργαλεία για να απολαύσουμε τα οφέλη της τεχνητής νοημοσύνης χωρίς να θυσιάζουμε την ιδιωτικότητά μας.
Για το κλείσιμο κάτι πρωτότυπο. Ένα τεστ προσωπικότητας διαφορετικό από τα άλλα. Είναι 100% δημιούργημα μου με αλγόριθμους βασισμένους σε αληθινές επιστημονικές έρευνες πάνω στην ανθρώπινη φύση, εξελιγμένη αριθμολογία, ψυχολογία, ιερή γεωμετρία, αστρονομία/αστρολογία (Δυτική, Ανατολική, Βεδική) και πολλά ακόμα που φανερώνουν στοιχεία της προσωπικότητας ενός ατόμου. Ένα διαφορετικό «ψυχογράφημα». Δοκιμάστε το για εσάς και τους φίλους σας για ψυχαγωγικούς σκοπούς, έχει πολύ ενδιαφέρον και λειτουργεί άψογα σε όλες τις συσκευές (κινητό, tablet, Η/Υ) χωρίς διαφημίσεις και tracking…
Με εκτίμηση,
Λαζ. Γεωργούλας, Διαδικτυακός Εξερευνητής
Πηγές & παραπομπές για την προστασία ιδιωτικότητας & ψυχογραφήματα στην AI:
- Privacy and Data Protectionin Chat GPT and Other AI Chatbots
Ερευνα που εξετάζει κρίσιμα ζητήματα προστασίας δεδομένων και πολιτικές ιδιωτικότητας στα chatbots τύπου LLM, όπως το ChatGPT, με προτάσεις για τεχνικές όπως differential privacy, federated learning κ.ά. ResearchGate - An Empirical Assessment of Security and Privacy Risks of Web based-Chatbots
Μελέτη που αποκαλύπτει ότι πολλά web chatbots χρησιμοποιούν tracking cookies και στέλνουν δεδομένα σε τρίτους, ενώ σε ορισμένες περιπτώσεις η μετάδοση γίνεται με ανασφαλείς πρωτόκολλες. arXiv - User Privacy Harms and Risks in Conversational AI
Ένα πλαίσιο (framework) που περιγράφει 9 είδη «βλαβών» ιδιωτικότητας και 9 κινδύνους που ανακύπτουν σε αλληλεπιδράσεις με chatbots. arXiv - AIchatbots: securityandprivacychallenges
Περιγραφή των κυριότερων προκλήσεων ασφαλείας και ιδιωτικότητας που αντιμετωπίζουν τα chatbots, με έμφαση στο πώς μπορούν να χρησιμοποιηθούν τα δεδομένα. ResearchGate - Interactiveapps, AIchatbotspromoteplayfulness, reduceprivacyconcerns
Μελέτη που αναφέρει πως όσο πιο «διαδραστική» είναι μια εφαρμογή/ chatbot, τόσο περισσότερο ο χρήστης απορροφάται και «ξεχνά» να σκεφτεί τις πιθανές παραχωρήσεις ιδιωτικότητας. Pennsylvania State University - ExploringprivacyissuesintheageofAI (IBM)
Άρθρο από την IBM που εξηγεί τους βασικούς κινδύνους ιδιωτικότητας στην εποχή της AI: συλλογή ευαίσθητων δεδομένων, ανάλυση χωρίς συγκατάθεση, διαρροές, και προτάσεις για λύσεις. IBM - User Privacy and Large Language Models: An Analysis of Frontier Developers‘ Privacy Policies
Πρόσφατη έρευνα που εξετάζει τις πολιτικές ιδιωτικότητας μεγάλων εταιρειών AI, τον τρόπο που χρησιμοποιούν τις συνομιλίες των χρηστών για εκπαίδευση μοντέλων, και πόσο διαφανοί είναι σχετικά με αυτό. arXiv - Privacy – Preserving Behaviour of Chatbot Users: Steering Through Trust Dynamics
Μελέτη που δείχνει ότι πολλοί χρήστες δεν καταλαβαίνουν πλήρως πώς χρησιμοποιούνται τα δεδομένα τους, και παρόλο που έχουν γνώση, δεν υιοθετούν συστηματικά πρακτικές προστασίας. arXiv