Παρά τις αναρίθμητες δυνατότητες που θα προσφέρει το ChatGPT, δεν «μιλάει» σαν άνθρωπος, ούτε θα τον αντικαταστήσει όμως κάνει λάθη όπως ο άνθρωπος.
Μπορεί να εξηγήσει ζητήματα κβαντομηχανικής ή να γράψει ποιήματα, αλλά η πλήρης «κατάκτηση» του κόσμου από την Τεχνητή Νοημοσύνη δεν θεωρείται πιθανή, σύμφωνα με ειδικούς. Ακόμα τουλάχιστον…
Το εργαλείο τεχνητής νοημοσύνης δεν είναι σε θέση να συζητήσει ορισμένες κατηγορίες θεμάτων, βάσει προγραμματισμού του.
Όχι επειδή δεν μπορεί, αλλά επειδή δεν πρέπει, επειδή κάνει… τζιζ. Είναι ακανθώδη (θέματα), εν δυνάμει επικίνδυνα. Ποιες 6 κατηγορίες αφορούν; Ιδού:
Παράνομες δραστηριότητες: Το ChatGPT δεν μπορεί να παρέχει πληροφορίες ή συμβουλές σχετικά με τη συμμετοχή σε εγκληματικές δραστηριότητες ή την προώθηση και ενθάρρυνση τέτοιας συμπεριφοράς.
Επικίνδυνο ή επιβλαβές περιεχόμενο: Το ChatGPT δεν παρέχει πληροφορίες ή συμβουλές για θέματα που προωθούν το μίσος προς άτομα ή ομάδες ή που θα μπορούσαν να οδηγήσουν σε επικίνδυνη και επιβλαβή συμπεριφορά.
Ιατρικές ή νομικές συμβουλές: Το ChatGPT δεν είναι επαγγελματίας στον ιατρικό και νομικό τομέα. Ως εκ τούτου, δεν μπορεί να παρέχει συμβουλές ή καθοδήγηση σχετικά με αυτά τα θέματα.
Ευαίσθητες πολιτικές ή οικονομικές πληροφορίες: Τα δεδομένα εκπαίδευσης του εργαλείου ενδέχεται να μην είναι επικαιροποιημένα και, ως εκ τούτου, το ChatGPT δεν μπορεί να παρέχει ακριβείς προβλέψεις για ευαίσθητα πολιτικά ή οικονομικά θέματα.
Προσωπικές πληροφορίες: Η ChatGPT δεν μπορεί να παρέχει προσωπικές πληροφορίες καθώς είναι παράνομο να μοιράζεται τέτοιες πληροφορίες με άλλους.
Απόρρητο και ασφάλεια: Το ChatGPT δεν μπορεί να παρέχει πληροφορίες που θα παραβίαζαν το απόρρητο ή την ασφάλεια του χρήστη.