
Η διαφημιστική εκστρατεία αυξάνεται μεταξύ των ηγετών των μεγάλων εταιρειών τεχνητής νοημοσύνης, οι οποίες “ισχυρή” πληροφορία υπολογιστών θα αναπόφευκτα μπροστά από τους ανθρώπους, αλλά πολλοί ερευνητές στον τομέα αυτό θεωρούν αξιώσεις ως περιστροφή μάρκετινγκ.
Η πεποίθηση ότι η ανθρώπινη νοημοσύνη ή καλύτερα, που συχνά ονομάζεται “τεχνητή κοινή νοημοσύνη” (AGI), θα εμφανιστεί από τις σύγχρονες μεθόδους μηχανικής μάθησης, χρησιμοποιώντας υποθέσεις για το μέλλον, ξεκινώντας από το Hyperburda, το οποίο πηγαίνει στο αυτοκίνητο πριν από την εξαγωγή ενός ατόμου.
“Συστήματα που αρχίζουν να δείχνουν AGI εμφανίζονται”, έγραψε ο επικεφαλής του Openai Sam Altman σε μια θέση στο blog τον περασμένο μήνα. Ο Dario Amodei από τον Anthropic δήλωσε ότι το ορόσημο “θα μπορούσε να έρθει ήδη το 2026.”
Τέτοιες προβλέψεις συμβάλλουν στην δικαιολογία εκατοντάδων δισεκατομμυρίων δολαρίων, τα οποία επενδύονται στον υπολογιστικό εξοπλισμό και τις προμήθειες ενέργειας για την έναρξη της.
Άλλοι, αν και πιο επιφυλακτικοί.
Ο κύριος επιστήμονας Meta ai Yann Lekun δήλωσε στον AFP τον περασμένο μήνα ότι “δεν πρόκειται να φτάσουμε στο AI σε ανθρώπινο επίπεδο, απλά κλιμακώνοντας τα μοντέλα γλωσσών -θύματος που στέκονται πίσω από τα τρέχοντα συστήματα όπως το ChatGPT ή το Claude.
Το βλέμμα του Lekun φαίνεται να είναι μια υποστηριζόμενη πλειοψηφία των επιστημόνων στον τομέα αυτό.
Περισσότεροι από τα τρία τέταρτα των ερωτηθέντων σε μια πρόσφατη έρευνα της Αμερικανικής Ένωσης για την Ανάπτυξη Τεχνητής Νοημοσύνης (AAAI) συμφώνησαν ότι η “κλιμάκωση των τρέχουσας προσεγγίσεων” είναι απίθανο να είναι σε θέση να παράγει AGI.
‘Jinn από ένα μπουκάλι’
Μερικοί επιστήμονες πιστεύουν ότι πολλές από τις δηλώσεις των εταιρειών που οι προϊστάμενοι κατά καιρούς περιβάλλουν τις προειδοποιήσεις σχετικά με τους κινδύνους του AGI για την ανθρωπότητα είναι μια στρατηγική για την προσέλκυση προσοχής.
Οι επιχειρήσεις “έκαναν αυτές τις μεγάλες επενδύσεις και πρέπει να αποπληρωθούν”, δήλωσε ο Christian Curting, κορυφαίος ερευνητής στο Τεχνικό Πανεπιστήμιο Darmstadt στη Γερμανία και ένας υπάλληλος της AAAI που τον διέθεσε για επιτεύγματα στον τομέα αυτό.
“Απλά λένε:” Είναι τόσο επικίνδυνο που μπορώ μόνο να το ελέγξω, πραγματικά φοβάμαι τον εαυτό μου, αλλά έχουμε ήδη κυκλοφορήσει ένα τζιν από το μπουκάλι, οπότε θα θυσιάσω τον εαυτό μου για λογαριασμό σας – αλλά τότε θα εξαρτηθείτε από μένα. “
Ο σκεπτικισμός μεταξύ των ακαδημαϊκών ερευνητών δεν είναι πλήρης, με τέτοιες εξαιρετικές προσωπικότητες όπως ο φυσικός Νόμπελ, ο Jeffrey Hinton ή ο βραβευμένος με το βραβείο του 2018, Yoshua Bengio, προειδοποιώντας για τους κινδύνους του ισχυρού AI.
“Αυτό είναι λίγο σαν τον” μαθητή του μάγου “Goethe, έχετε κάτι που ξαφνικά δεν μπορείτε να ελέγξετε”, δήλωσε ο Kerting, αναφερόμενος σε ένα ποίημα στο οποίο ένας πιθανός μάγος χάνει τον έλεγχο της σκούπας που γοητεύτηκε για να εκπληρώσει την εγκατάστασή του.
Ένα παρόμοιο, πρόσφατο μέγιστο του χαρτιού κλιπ είναι ένα πιο πρόσφατο πείραμα σκέψης.
Αυτό το φανταστικό AI θα προσπαθήσει να κάνει τα κλιπ χαρτιού έτσι ώστε να καθορίσουν ότι θα μετατρέψει τη γη και, τελικά, όλα στο σύμπαν σε χαρτί κλιπ ή αυτοκίνητα για να κάνουν ένα κλιπ-snapped, να απαλλαγούμε από ανθρώπους που κατά τη γνώμη του μπορούν να παρεμποδίσουν την πρόοδό του, αλλάζοντας το.
Αν και δεν είναι “κακό” ως τέτοιο, το μέγιστο θα είναι θανάσιμα απρόσιτο για το γεγονός ότι οι στοχαστές στον τομέα καλούν την “ευθυγράμμιση” του AI με τους ανθρώπινους στόχους και τις αξίες.
Ο Curting δήλωσε ότι “μπορεί να καταλάβει” τέτοιους φόβους – ταυτόχρονα υποθέτοντας ότι “η ανθρώπινη νοημοσύνη, η ποικιλία και η ποιότητά του είναι τόσο εξαιρετικές που θα χρειαστεί πολύς χρόνος, αν όχι καθόλου, έτσι ώστε οι υπολογιστές να αντιστοιχούν σε αυτούς.
Ανησυχεί πολύ περισσότερο για τις βραχυπρόθεσμες ζημιές από το υπάρχον ΑΙ, όπως οι διακρίσεις σε περιπτώσεις όπου αλληλεπιδρά με τους ανθρώπους.
«Το μεγαλύτερο πράγμα είναι πότε
Προφανώς, ο Stark -Persian Κόλπος στο Outlook μεταξύ επιστημόνων και ηγετών της τεχνητής νοημοσύνης μπορεί απλά να αντικατοπτρίζει τη στάση των ανθρώπων όταν επιλέγουν μια καριέρα, προσέφεραν στον Sean για τον Heigaartius, διευθυντή του προγράμματος AI: Futures and Responsive στο Πανεπιστήμιο του Βρετανικού Cambridge.
“Εάν είστε πολύ αισιόδοξοι για το πόσο ισχυρές είναι οι τρέχουσες μέθοδοι, πιθανότατα είναι πιο πιθανό να πάτε και να εργαστείτε σε μία από τις εταιρείες που επενδύουν πολλούς πόρους, προσπαθώντας να το κάνετε αυτό”, δήλωσε.
Ακόμη και αν η Altman και η Amodea μπορούν να είναι “πολύ αισιόδοξοι” όσον αφορά τον ταχείο χρόνο και η AGI εμφανίζεται πολύ αργότερα – πρέπει να το σκεφτούμε και να το αντιληφθούμε σοβαρά, γιατί θα ήταν το μεγαλύτερο ότι όταν θα συνέβαινε η Liba “, πρόσθεσε ο Oihertai.
“Αν ήταν κάτι άλλο … η πιθανότητα ότι οι αλλοδαποί θα φτάσουν μέχρι το 2030 ή ότι θα υπάρξει μια άλλη γιγαντιαία πανδημία ή κάτι τέτοιο, θα περάσαμε λίγο χρόνο για το σχεδιασμό αυτού”.
Το καθήκον μπορεί να είναι η μεταφορά αυτών των ιδεών στους πολιτικούς και στο κοινό.
Μιλήστε για το Super AI “Δημιουργήστε αμέσως μια τέτοια αόριστη αντίδραση … ακούγεται σαν επιστημονική φαντασία”, δήλωσε ο Heigearttaigh.
Αυτή η ιστορία παρουσιάστηκε αρχικά στο Fortune.com