Τα εργαλεία δημιουργίας τεχνητής νοημοσύνης όπως το ChatGPT, το Gemini και το Copilot μπορεί να είναι ισχυρά. Αν και η γενετική τεχνητή νοημοσύνη είναι μια αρκετά νέα τεχνολογία, ένας σημαντικός περιορισμός στη χρήση της χρονολογείται από τη δεκαετία του 1950 ή νωρίτερα: το GIGO. Το GIGO σημαίνει “σκουπίδια μέσα, σκουπίδια έξω”. Εάν κάνετε λάθος ερωτήσεις στο AI ή κάνετε λάθος, είναι σχεδόν σίγουρο ότι θα λάβετε μη χρήσιμες απαντήσεις.
Επιπλέον: 7 τρόποι για να γράψετε καλύτερα ερωτήματα ChatGPT και να λάβετε τα αποτελέσματα που θέλετε πιο γρήγορα.
Σε αυτό το άρθρο θα σας δείξω ποια πιστεύω ότι είναι τα πέντε μεγαλύτερα λάθη που κάνω, αλλά είμαι μόνο ένα από αυτά. Έτσι, εκτός από τις δικές μου απαντήσεις, απηύθυνα αυτή την ερώτηση στους «ανθρώπους» που θα έπρεπε να γνωρίζουν καλύτερα το συγκεκριμένο θέμα: AI.
Έθεσα τα ChatGPT, Copilot, Grok, Gemini και Meta AI την ίδια ερώτηση: “Ποια είναι τα πέντε μεγαλύτερα λάθη που κάνουν οι άνθρωποι όταν δίνουν προτάσεις τεχνητής νοημοσύνης;”
Για να βεβαιωθώ ότι οι σκέψεις μου δεν επηρεάστηκαν από την τεχνητή νοημοσύνη, ξεκίνησα με μια λίστα με αυτά που πίστευα ότι ήταν τα κορυφαία πέντε μεγαλύτερα λάθη που κάνουν οι άνθρωποι και είχα ήδη γράψει τις λεπτομερείς περιγραφές μου πριν ζητήσω από το AI να δώσει τη γνώμη του. Τα αποτελέσματα (και ειδικά τα συνολικά θέματα) είναι πολύ ενδιαφέροντα. Εδώ είναι ένας πίνακας που περιέχει όλες τις απαντήσεις μας.
Σημειώστε ότι όλοι συμφωνούμε στην κύρια απάντηση: να μην είμαστε αρκετά συγκεκριμένοι στις συμβουλές. Για περισσότερες λεπτομέρειες, ας ρίξουμε μια ματιά στα μεγαλύτερα λάθη που μπορείτε να κάνετε με τις προτάσεις AI. Ας ξεκινήσουμε με την πεντάδα μου.
1. Όχι αρκετά συγκεκριμένο
Ούτε η τεχνητή νοημοσύνη ούτε οι άνθρωποι (με πιθανή εξαίρεση τη γυναίκα μου) μπορούν να διαβάσουν μυαλά. Μπορεί να έχετε μια πολύ ξεκάθαρη ιδέα για το πρόβλημα που προσπαθείτε να λύσετε, τους περιορισμούς, τι έχετε εξετάσει ή δοκιμάσει και πιθανές αντιρρήσεις.
Επίσης: 7 πρόσθετες συμβουλές για τη σύνταξη προτροπών ChatGPT που πρέπει να γνωρίζετε
Αλλά αν δεν κάνετε μια πολύ ξεκάθαρη ερώτηση, ούτε οι άνθρωποι φίλοι σας ούτε οι βοηθοί σας τεχνητής νοημοσύνης θα μπορούν να βγάλουν αυτές τις εικόνες από το κεφάλι σας. Όταν ζητάτε βοήθεια, να είστε σαφείς και ολοκληρωμένοι.
2. Δεν διευκρινίζεται πώς θέλετε να μορφοποιήσετε την απάντηση.
Χρειάζεστε λίστα, συζήτηση ή τραπέζι; Θέλετε να συγκρίνετε παράγοντες ή θέλετε να εμβαθύνετε στα ζητήματα; Αυτό το σφάλμα παρουσιάζεται όταν κάνετε μια ερώτηση, αλλά δεν δίνετε οδηγίες AI για το πώς θέλετε να παρουσιαστεί η απάντηση.
Αυτό το λάθος δεν αφορά μόνο το στυλ και τα σημεία στίξης – έχει να κάνει με τον τρόπο επεξεργασίας και βελτίωσης των πληροφοριών για την τελική σας κατανάλωση. Όπως και με το πρώτο μου σημείο σε αυτήν τη λίστα, να είστε συγκεκριμένοι. Πείτε στο AI τι ψάχνετε και τι χρειάζεστε για να αποδεχτείτε την απάντηση.
3. Δεν θυμάμαι να διαγράψετε ή να ξεκινήσετε μια νέα περίοδο λειτουργίας.
Έχω διαπιστώσει ότι οι AI μερικές φορές μπερδεύονται όταν χρησιμοποιείτε μία περίοδο λειτουργίας για πολλές γραμμές έρευνας. Μερικές φορές υποθέτουν ότι οι πληροφορίες που παρείχατε νωρίτερα ή οι ερωτήσεις που είχατε ρωτήσει προηγουμένως σχετίζονται επίσης με ένα μεταγενέστερο σύνολο ενδείξεων.
Επίσης: 7 πρόσθετες συμβουλές για τη σύνταξη προτροπών ChatGPT που πρέπει να γνωρίζετε
Για να ξεπεράσω αυτό το πρόβλημα, είτε ξεκινώ μια εντελώς νέα συνεδρία είτε λέω στην τεχνητή νοημοσύνη να “εκκαθαρίσει συνεδρία”, η οποία λέει στην τεχνητή νοημοσύνη να αντιμετωπίζει οτιδήποτε πρόκειται να συζητήσουμε ως μια εντελώς νέα συζήτηση.
4. Μην διορθώσετε, διευκρινίσετε ή καθοδηγήσετε το AI αφού απαντήσετε.
Ακριβώς όπως στην ανθρώπινη συνομιλία, διαπιστώνω ότι οι AI συχνά παρεξηγούν την ερώτηση ή πηγαίνουν κάτω από μια γραμμή έρευνας που δεν σχετίζεται άμεσα με αυτό που ψάχνω.
Διαπιστώνω ότι συχνά πρέπει να ανατρέξω σε μια ερώτηση, να κάνω περισσότερες ερωτήσεις, να πω στην τεχνητή νοημοσύνη ότι πήρε τη λάθος απάντηση, να τη διορθώσω και να την κατευθύνω σε αυτό που ψάχνω. Αν όλα πάνε σύμφωνα με το σχέδιο, αλλά λείπει μέρος της απάντησης, πείτε το. Πείτε του τι κάνει λάθος και τι κάνει σωστά, και μετά συνεχίστε σε αυτό το μονοπάτι της εξερεύνησης.
5. Δεν ξέρεις πότε να τα παρατήσεις.
Μερικές φορές το πρόβλημα δεν είναι κάτι που μπορεί να λύσει η τεχνητή νοημοσύνη ή δεν μπορεί να προσφέρει το επίπεδο ποιότητας που θέλετε. Βασικά, η τεχνητή νοημοσύνη είναι ένα εργαλείο και ένα εργαλείο δεν μπορεί να κάνει τα πάντα.
Έτσι, ξέρετε πότε να τα κρατάτε και να ξέρετε πότε να τα ρίχνετε. Μάθετε πότε είναι ώρα να επιστρέψετε σε μια μηχανή αναζήτησης, να περιηγηθείτε σε φόρουμ ή να συνθέσετε απαντήσεις μόνοι σας. Υπάρχει ένα σημείο μείωσης των αποδόσεων, και αν μπορείτε να προσδιορίσετε αυτό το σημείο, μπορείτε να εξοικονομήσετε χρόνο και να αποφύγετε την απογοήτευση.
Εντάξει, αυτά είναι τα πέντε κομμάτια της σοφίας μου. Ας δούμε τι λένε οι AI.
Συμβουλή ChatGPT
Εδώ είναι οι απαντήσεις που μου έδωσε το ChatGPT.
- Πολύ ασαφές ή ασαφές: Η σύνταξη προτροπών που στερούνται ειδικότητας οδηγεί σε ελλιπείς ή άσχετες απαντήσεις.
- Υπερφόρτωση πρόσκλησης: Συμπεριλαμβάνονται πάρα πολλές πληροφορίες ή αιτήματα πολλαπλών άσχετων εργασιών σε ένα αίτημα.
- Χρήση λανθασμένης ή αντιφατικής ορολογίας: Χρήση όρων ή φράσεων που μπορεί να υπόκεινται σε διαφορετικές ερμηνείες ή που δεν ταιριάζουν στο επιδιωκόμενο πλαίσιο.
- Αποτυχία καθορισμού μορφής ή δομής απάντησης: Μην δίνετε οδηγίες στην τεχνητή νοημοσύνη πώς θα πρέπει να είναι η έξοδος (π.χ. κουκκίδες, παράγραφοι, περίληψη).
- Υποθέτοντας ότι το AI γνωρίζει τα πάντα για το πλαίσιο: Παράλειψη σημαντικών πληροφοριών ιστορικού, υποθέτοντας ότι το AI γνωρίζει ήδη συγκεκριμένες λεπτομέρειες.
Επίσης: Πώς εγκατέστησα το ChatGPT ως αντίγραφο ασφαλείας του Siri – και τι άλλο μπορεί να κάνει στο iPhone μου
Το ChatGPT συμφώνησε με τις απαντήσεις μου σε δύο από τις πέντε: ήταν πολύ ασαφές και δεν καθόριζε τη μορφή. Ας δούμε τι λέει ο CoPilot.
Συμβουλή συγκυβερνήτη
Ο συγκυβερνήτης μου έδωσε τη συμβουλή του αφού έβαλα το άκρο.
- Έλλειψη σαφήνειας: Οι ασαφείς ενδείξεις μπορούν να οδηγήσουν σε εξίσου ασαφείς απαντήσεις.
- Πληροφορίες υπερφόρτωσης: Η παροχή πάρα πολλών πληροφοριών ταυτόχρονα μπορεί να είναι συντριπτική.
- Παράβλεψη περιβάλλοντος: Η αποτυχία παροχής πλαισίου μπορεί να οδηγήσει σε λανθασμένες απαντήσεις.
- Χωρίς να διευκρινίζεται: Οι γενικές ερωτήσεις μπορούν να δώσουν ευρείες απαντήσεις.
- Υποθέτοντας ότι το AI γνωρίζει τα πάντα: Δεν έχετε προσωπική εμπειρία ή ικανότητα κατανόησης εξαιρετικά εξειδικευμένων θεμάτων χωρίς επαρκές πλαίσιο ή υπόβαθρο.
Είναι ενδιαφέρον ότι ο συγκυβερνήτης διαχώρισε την έλλειψη σαφήνειας από την ανακρίβεια. Νομίζω ότι πρόκειται για το ίδιο πράγμα. Αλλά ανεξάρτητα από το πώς το αναφέρετε, τόσο το Copilot όσο και εγώ συμφωνούμε ότι πρέπει να του δώσετε αρκετές πληροφορίες για να κάνει τη δουλειά του.
Επίσης: Πώς να χρησιμοποιήσετε το Microsoft Copilot AI σε Linux
Τόσο το Copilot όσο και το ChatGPT χρησιμοποιούν το ίδιο υποκείμενο LLM, επομένως είναι ενδιαφέρον ότι οι απαντήσεις τους είναι ελαφρώς διαφορετικές.
Grok’s Grokings
Όπως και με άλλα AI, ζήτησα από τον Grok να μου πει τι κάνουν λάθος οι άνθρωποι. Υπήρχαν κάποιες απαντήσεις εκεί.
- Ασαφή ή διφορούμενα ερωτήματα: Κάντε ερωτήσεις που είναι πολύ γενικές ή ασαφείς.
- Υποθέτοντας την ανθρώπινη κατανόηση: Περιμένοντας η τεχνητή νοημοσύνη να κατανοήσει το πλαίσιο ή τις αποχρώσεις με τον ίδιο τρόπο που μπορεί ένας άνθρωπος.
- Υπερφόρτωση της συμβουλής εργαλείου με πληροφορίες: Δίνοντας πάρα πολλές πληροφορίες ή κάνοντας πάρα πολλές ερωτήσεις σε ένα μήνυμα.
- Αγνοώντας τις δυνατότητες και τους περιορισμούς του AI: Ζητήστε από το AI να εκτελέσει εργασίες για τις οποίες δεν έχει σχεδιαστεί, όπως ανάλυση δεδομένων σε πραγματικό χρόνο ή προσωπικές συμβουλές βασισμένες σε συναισθήματα.
- Μην επαναλάβετε ή διευκρινίσετε αιτήματα: Αποδεχόμενοι την πρώτη απάντηση χωρίς να σκέφτεστε αν ανταποκρίνεται πλήρως στις ανάγκες ή αν μπορεί να βελτιωθεί με πιο συγκεκριμένες ερωτήσεις.
Όπως και με άλλους, η πρώτη σύσταση του Grock είναι να αποφύγετε ασαφείς ερωτήσεις. Είναι ενδιαφέρον ότι αυτό έδωσε δύο επιλογές που θα μπορούσαν να θεωρηθούν παρόμοιες με την πρότασή μου να γνωρίζω πότε να τα παρατήσω.
Επίσης: Ο Grock από το X τα πήγε εκπληκτικά καλά στις δοκιμές κωδικοποίησης AI μου.
Η υπόθεση της ανθρώπινης κατανόησης και η παράβλεψη των περιορισμών της τεχνητής νοημοσύνης σχετίζεται άμεσα με την ιδέα να γνωρίζουμε πότε δεν πρέπει να χρησιμοποιείτε την τεχνητή νοημοσύνη. Ο Grok και εγώ προτείναμε να επαναλαμβάνετε ερωτήματα για να διασφαλίσουμε τη σταδιακή βελτίωση των απαντήσεων που ενδέχεται να λάβετε.
Συμβούλιο Διδύμων
Να τι είπε ο Δίδυμος.
- Αόριστες ή διφορούμενες οδηγίες: Αυτό είναι ίσως το πιο συνηθισμένο λάθος.
- Έλλειψη πλαισίου: Όπως και με την αβεβαιότητα, η έλλειψη επαρκούς πλαισίου αναγκάζει το AI να μαντέψει.
- Πολύ περίπλοκη γλώσσα: Αν και τα μοντέλα τεχνητής νοημοσύνης είναι περίπλοκα, η χρήση υπερβολικά περίπλοκης ή μπερδεμένης γλώσσας μπορεί να τα μπερδέψει.
- Αναντιστοιχία με τις δυνατότητες AI: Το να περιμένει κανείς από την τεχνητή νοημοσύνη να κάνει κάτι για το οποίο δεν είχε σχεδιαστεί είναι ένα συνηθισμένο λάθος.
- Αγνοώντας τη σημασία της επανάληψης: Ο λειτουργικός σχεδιασμός είναι συχνά μια επαναληπτική διαδικασία. Μπορεί να μην λάβετε την τέλεια απάντηση στην πρώτη σας προσπάθεια.
Επίσης: Το Google TV θα λάβει μια σημαντική ενημέρωση Gemini το 2025
Πρέπει να δώσετε στους Διδύμους πόντους για αλλοίωση σε αυτό το τελευταίο. Πιο σοβαρά, βλέπουμε μια σαφή τάση προς ασαφείς οδηγίες. Οι Gemini και Grok συμφωνούν με τον Gewirtz (δείτε τι έκανα εκεί;) και πιστεύουν ότι η επανάληψη είναι σημαντική για να έχετε ποιοτικά αποτελέσματα.
Συμβούλιο Meta AI
Τελικά, αποφάσισα να δω τι είχε να πει το AI του Meta για αυτό. Ιδού οι απαντήσεις του.
- Έλλειψη συγκεκριμένων στοιχείων: Οι ασαφείς ενδείξεις μπορεί να μπερδέψουν την τεχνητή νοημοσύνη, οδηγώντας σε άσχετες ή ανακριβείς απαντήσεις.
- Ανεπαρκές πλαίσιο: Τα μοντέλα AI στερούνται ανθρώπινης εμπειρίας και κοινής λογικής.
- Αμφισημία και αβεβαιότητα: Αποφύγετε τη χρήση διφορούμενης γλώσσας, ιδιωματισμών ή σαρκασμού που θα μπορούσαν να παρερμηνευθούν από το AI.
- Μη ρεαλιστικές προσδοκίες: Κατανοήστε τους περιορισμούς και τις δυνατότητες του μοντέλου AI.
- Μην ελέγχετε ή διευκρινίζετε υποδείξεις: Αφιερώστε χρόνο για να ελέγξετε και να βελτιώσετε τις προτροπές σας.
Έχουμε επιτυχία στο τουρνουά Grand Slam λόγω έλλειψης ειδικότητας. Το AI του Meta συμφώνησε επίσης σε πολλά άλλα θέματα.
Πώς να πετύχετε με τις προτροπές γραφής
Η γνώση των πιο συνηθισμένων λαθών μπορεί να σας βοηθήσει όταν γράφετε προτροπές. Απλά κάντε το αντίθετο. Αυτό μας αφήνει μια λίστα με εννέα ισχυρές συμβουλές για τη σύνταξη προτροπών:
- Χρησιμοποιήστε συγκεκριμένες, σαφείς και πλήρεις προτροπές.
- Να θυμάστε ότι η τεχνητή νοημοσύνη είναι απλώς ένα πρόγραμμα, όχι ένας μαγικός χρησμός.
- Επαναλάβετε και βελτιώστε τα ερωτήματά σας κάνοντας όλο και καλύτερες ερωτήσεις.
- Κρατήστε την προτροπή για το θέμα.
- Δώστε λεπτομέρειες που θα δώσουν το πλαίσιο στα αιτήματά σας.
- Βεβαιωθείτε ότι έχετε προσδιορίσει όλες τις τσιτάτα και την ορολογία, καθώς και οποιεσδήποτε λέξεις και έννοιες που μπορεί να χρειάζεται να γνωρίζει το AI που σχετίζονται με το ερώτημά σας.
- Ξεκινήστε με μια νέα συνεδρία για να αποφύγετε τη σύγχυση του AI με την προηγούμενη εργασία.
- Μάθετε πότε να δοκιμάσετε ένα διαφορετικό εργαλείο.
Και έτσι. Αυτό θα σας βοηθήσει να προχωρήσετε στη δημιουργία εξαιρετικών συμβουλών που θα παράγουν εξαιρετικά αποτελέσματα.
Τι πιστεύεις; Έχετε κάποιες επιπλέον συμβουλές που θα προτείνατε; Ενημερώστε μας στα σχόλια παρακάτω.
Μπορείτε να παρακολουθείτε τις καθημερινές ενημερώσεις του έργου μου στα κοινωνικά δίκτυα. Φροντίστε να εγγραφείτε για τις εβδομαδιαίες ενημερώσεις μου και να με ακολουθήσετε στο Twitter/X στο @DavidGewirtzστο Facebook στο Facebook.com/DavidGewirtz, στο Instagram στο Instagram.com/DavidGewirtz, στο Bluesky στο @DavidGewirtz.com και στο YouTube στο YouTube.com/DavidGewirtzTV.