ChatGPT and Employees

Date: April 12, 2023

By Iro Katrachoura

ChatGPT (Chatbot as a Generative Pretrained Transformer), the most prominent current example of Generative Artificial Intelligence (AI), is an artificially intelligent chatbot designed by “OpenAI” and supported by Microsoft. Although ChatGPT has received very positive reviews and has been described as “the best artificial intelligence chatbot ever released to the general public”, it is a new technology which may pose risks, that relate to its use by employees, such as the accuracy of information and risk related to data privacy and confidentiality.

Below you may find the full article in Greek

Της Ηρούς Κατραχούρα

Το ChatGPT (Chatbot as a Generative Pretrained Transformer), το πιο χαρακτηριστικό σημερινό παράδειγμα Παραγωγικής Τεχνητής Νοημοσύνης (ΤΝ), είναι ένα τεχνητά ευφυές chatbot που σχεδιάστηκε από την εταιρεία “OpenAI” και υποστηρίζεται από τη Microsoft. Το ChatGPT έχει εκπαιδευτεί σε ένα τεράστιο σώμα δεδομένων κειμένου και έχει τη δυνατότητα να εκτελεί μια ποικιλία εργασιών επεξεργασίας φυσικής γλώσσας, όπως μεταφράσεις, περιλήψεις κειμένων, καθώς και να συντάσσει ποιήματα, να παράγει δημοσιογραφικά άρθρα, αγγελίες εργασίας κ.ά.

Παρόλο που το ChatGPT έχει λάβει πολύ θετικές κριτικές και έχει χαρακτηριστεί ως «το καλύτερο chatbot τεχνητής νοημοσύνης που κυκλοφόρησε ποτέ στο ευρύ κοινό»[1], πρόκειται για μια νέα τεχνολογία, η οποία ενδέχεται να ενέχει κινδύνους, μεταξύ των οποίων και οι ακόλουθοι, οι οποίοι αφορούν τη χρήση του ChatGPT από εργαζόμενους:

  • Λανθασμένες πληροφορίες:

Το ChatGPT παρουσιάζει συγκεκριμένα αποτελέσματα βασιζόμενο σε στατιστικές πιθανότητες, χωρίς να αποκαλύπτει τις πηγές του, και χωρίς να πραγματοποιείται εγγενής έλεγχος της ορθότητας των απαντήσεων που δίνονται στους χρήστες. Ως εκ τούτου, ενέχει ο κίνδυνος ορισμένα αποτελέσματα να είναι μεροληπτικά ή να προάγουν διακρίσεις. Επιπρόσθετα, σημειώνεται πως η τρέχουσα έκδοση του ChatGPT έχει εκπαιδευτεί σε σύνολα δεδομένων που ήταν διαθέσιμα μέχρι το 2021 (επομένως οι πληροφορίες που παρέχονται ενδέχεται να μην είναι έγκαιρες).

  • Κίνδυνοι ως προς το απόρρητο και την εμπιστευτικότητα των δεδομένων:

Σύμφωνα με την πολιτική απορρήτου του ChatGPT, οι προσωπικές πληροφορίες που συλλέγονται χρησιμοποιούνται για τη διεξαγωγή έρευνας, “η οποία μπορεί να παραμείνει εσωτερική ή να κοινοποιηθεί σε τρίτους, να δημοσιευθεί ή να γίνει γενικά διαθέσιμη”, χωρίς να κατονομάζονται τα τρίτα αυτά μέρη.

Σε ένα επιχειρηματικό περιβάλλον, ελλοχεύει πάντα ο κίνδυνος να υπάρξει διαρροή δεδομένων, από εταιρικές πληροφορίες οι οποίες μπορεί να δημοσιευτούν από τους εργαζόμενους σε έναν ιστότοπο, και το ίδιο ισχύει και για τις προσωπικά ταυτοποιήσιμες πληροφορίες που μπορεί να εισάγονται στο ChatGPT.

Σε κάθε περίπτωση, δέον να σημειωθεί ότι όλα τα δεδομένα που εισάγονται στο σύστημα υποβάλλονται σε επεξεργασία στις ΗΠΑ, με αποτέλεσμα  να μην παρέχεται κάποια εγγύηση για την ασφαλή διατήρηση των δεδομένων, καθώς  σύμφωνα με το ισχύον πλαίσιο,  οι ΗΠΑ δεν ανήκουν στον κατάλογο των χωρών που θεωρούνται ότι παρέχουν ένα επαρκές επίπεδο προστασίας των προσωπικών δεδομένων.

Συμπερασματικά, κρίνεται σκόπιμο οι εταιρείες να διαμορφώσουν μια εσωτερική διαδικασίας ορθής χρήσης του ChatGPT, η οποία να προβλέπει τις επιτρεπόμενες και μη μορφές χρήσης της εν λόγω πλατφόρμας και άλλων παρόμοιων, προκειμένου να διαφυλάξει την εμπιστευτικότητα των δεδομένων από ενδεχόμενη διαρροή. Ειδικότερα, προτείνεται οι εργαζόμενοι:

  • α) να μην εισάγουν προσωπικά δεδομένα (ιδίως δεδομένα πελατών ή/και εργαζομένων) ή άλλα δεδομένα που χαρακτηρίζονται ως εμπιστευτικά και αυστηρά απόρρητα (π.χ. μη δημοσιευμένα οικονομικά δεδομένα, πληροφορίες σχετικά με στρατηγικά έργα κ.λπ.) σε συστήματα Παραγωγικής Τεχνητής Νοημοσύνης (όπως το ChatGPT ή το Google Bard)

και

  • β) να ελέγχουν -όπως και σε οποιαδήποτε άλλη αναζήτηση στο Διαδίκτυο- την ακρίβεια και ορθότητα των αποτελεσμάτων που παρουσιάζονται από το ChatGPT, πραγματοποιώντας έρευνα και σε άλλες πηγές.

[1] Roose, Kevin (5 December 2022). «The Brilliance and Weirdness of ChatGPT». The New York Times