Πρέπει να σταματήσουμε να εκπαιδεύουμε προηγμένη τεχνητή νοημοσύνη;
Οπως καιτεχνητή νοημοσύνη (Όλα συμπεριλαμβάνονται )συνεχίζει να προοδεύει, ορισμένες βασικές προσωπικότητες στον τομέα ζητούν τώρα την αναστολή της εκπαίδευσης σε τεχνητή νοημοσύνη λόγω του κινδύνου που ενέχει για την ανθρωπότητα. Ο Διευθύνων Σύμβουλος του Κελάδημα , Έλον Μόσχος , ο συνιδρυτής της μήλο , Στέφανος Ο Βόζνιακ , και ορισμένοι ερευνητές στο DeepMind υπέγραψαν μια ανοιχτή επιστολή από το Μελλοντικός του ΖΩΗ Ινστιτούτο ζητώντας την προσωρινή αναστολή της ανάπτυξης τεχνητής νοημοσύνης πάνω από μια ορισμένη χωρητικότητα, προειδοποιώντας για τους πιθανούς κινδύνους που θέτουν πιο προηγμένα συστήματα. . Η επιστολή υποστηρίζει ότι τους τελευταίους μήνες είδαν εργαστήρια τεχνητής νοημοσύνης να εγκλωβίζονται σε έναν αγώνα εκτός ελέγχου για να αναπτύξουν πιο ισχυρά ψηφιακά μυαλά, τα οποία ακόμη και οι δημιουργοί τους δεν μπορούν να κατανοήσουν, να προβλέψουν ή να ελέγξουν.
Το Μελλοντικός του ΖΩΗ Ινστιτούτο είναι ένας μη κερδοσκοπικός οργανισμός που στοχεύει να κατευθύνει τις μετασχηματιστικές τεχνολογίες μακριά από ακραίους, μεγάλης κλίμακας κινδύνους και προς όφελος της ζωής. Στην ανοιχτή τους επιστολή, ο οργανισμός αναφέρει ότι τα συστήματα τεχνητής νοημοσύνης με ανθρώπινη-ανταγωνιστική νοημοσύνη θέτουν σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα. Η επιστολή προειδοποιεί ότι τέτοια συστήματα θα μπορούσαν να πλημμυρίσουν τα κανάλια πληροφοριών με παραπληροφόρηση και να αντικαταστήσουν τις θέσεις εργασίας με αυτοματισμούς. Οι προηγμένες τεχνητές νοημοσύνης πρέπει να αναπτυχθούν με προσοχή, αλλά αντίθετα, τους τελευταίους μήνες τα εργαστήρια αγωνίζονται για την ανάπτυξη ολοένα και πιο ισχυρών συστημάτων.
Η επενδυτική τράπεζα Goldman Sachs δημοσίευσε πρόσφατα μια έκθεση που αναφέρει ότι ενώ η τεχνητή νοημοσύνη πιθανότατα θα αυξήσει την παραγωγικότητα, εκατομμύρια θέσεις εργασίας θα μπορούσαν να αυτοματοποιηθούν. Ωστόσο, άλλοι ειδικοί υποστηρίζουν ότι η επίδραση της τεχνητής νοημοσύνης στην αγορά εργασίας είναι δύσκολο να προβλεφθεί. Στην επιστολή, το Ινστιτούτο Μελλοντικός του ΖΩΗ ρωτά: «Πρέπει να αναπτύξουμε μη ανθρώπινα μυαλά που θα μπορούσαν τελικά να ξεπεράσουν σε αριθμό, να ξεπεράσουν, να ξεπεράσουν [ούτω ] και να μας αντικαταστήσουν;» Ο καθηγητής Στιούαρτ Ράσελ του Πανεπιστημίου της Καλιφόρνια στο Μπέρκλεϋ, και ένας υπογράφοντες την επιστολή, είπε στο BBC Νέα ότι τα συστήματα τεχνητής νοημοσύνης ενέχουν σημαντικούς κινδύνους για τη δημοκρατία μέσω της οπλισμένης παραπληροφόρησης, για την απασχόληση μέσω της μετατόπισης των ανθρώπινων δεξιοτήτων και την εκπαίδευση μέσω λογοκλοπής και αποτροπής κινήτρων.
Η επιστολή προειδοποιεί επίσης για την πιθανή μελλοντική απειλή για τον ανθρώπινο έλεγχο του πολιτισμού μας από προηγμένα Όλα συμπεριλαμβάνονται , αλλά ο καθηγητής επιστήμης υπολογιστών του Πρίνστον Άρβιντ Ναραγιανάν επέκρινε την επιστολή επειδή αγνοούσε την εκδοχή του προβλήματος που ήδη βλάπτει τους ανθρώπους. Κατηγόρησε την επιστολή ότι επικεντρώνεται σε «κερδοσκοπικό, φουτουριστικό κίνδυνο». Η OpenAI , η εταιρεία πίσω από το ChatGPT , κυκλοφόρησε πρόσφατα το GPT -4 – μια τεχνολογία αιχμής που έχει εντυπωσιάσει τους παρατηρητές με την ικανότητά της να εκτελεί εργασίες όπως η απάντηση σε ερωτήσεις σχετικά με αντικείμενα σε εικόνες.OpenAI δεν σχολίασε δημόσια την επιστολή.
Δεδομένων των πιθανών κινδύνων που συνδέονται με την ταχεία πρόοδο της τεχνητής νοημοσύνης, οι ειδικοί ζητούν μεγαλύτερη προσοχή στην ανάπτυξη της τεχνητής νοημοσύνης. Συγκεκριμένα, προτρέπουν τα εργαστήρια να σταματήσουν αμέσως για τουλάχιστον έξι μήνες την εκπαίδευση συστημάτων τεχνητής νοημοσύνης πιο ισχυρών από το GPT -4. Ενώ η τεχνητή νοημοσύνη έχει τη δυνατότητα να μεταμορφώσει την κοινωνία, οι ειδικοί υποστηρίζουν ότι αυτός ο μετασχηματισμός δεν πρέπει να έχει το κόστος της ανθρώπινης ασφάλειας και ελέγχου.
Μακροπρόθεσμα, η λήψη λογικών προφυλάξεων είναι ένα μικρό τίμημα για τον μετριασμό των κινδύνων που θέτουν οι προηγμένες Όλα συμπεριλαμβάνονται . Ωστόσο, οι ειδικοί υποστηρίζουν επίσης ότι οι κίνδυνοι είναι δύσκολο να προβλεφθούν και ότι πρέπει να προχωρήσουμε με προσοχή για να αποφύγουμε ακούσιες συνέπειες. Το Ινστιτούτο Μελλοντικός του ΖΩΗ προτρέπει τους προγραμματιστές τεχνητής νοημοσύνης να εξετάσουν τις πιθανές μελλοντικές επιπτώσεις της δουλειάς τους και να διασφαλίσουν ότι τα προηγμένα Όλα συμπεριλαμβάνονται αναπτύσσονται με προσοχή.
Συνολικά, η έκκληση για αναστολή της εκπαίδευσης σε τεχνητή νοημοσύνη πάνω από μια ορισμένη ικανότητα αντικατοπτρίζει την αυξανόμενη ανησυχία για τους κινδύνους που ενέχουν οι προηγμένες τεχνητές νοημοσύνης. Αν και υπάρχουν ακόμη πολλά που δεν γνωρίζουμε για τις μακροπρόθεσμες επιπτώσεις της τεχνητής νοημοσύνης, οι ειδικοί προτρέπουν να είστε προσεκτικοί ώστε να αποφευχθεί πιθανή βλάβη στην κοινωνία και την ανθρωπότητα. Ο γρήγορος ρυθμός ανάπτυξης της τεχνητής νοημοσύνης τα τελευταία χρόνια έχει αφήσει πολλούς ειδικούς να ανησυχούν ότι η τεχνολογία μπορεί να είναι εκτός ελέγχου και ότι κινδυνεύουμε να δημιουργήσουμε συστήματα που δεν μπορούμε να κατανοήσουμε ή να ελέγξουμε. Ως εκ τούτου, η έκκληση για παύση της ανάπτυξης της τεχνητής νοημοσύνης είναι ένα απαραίτητο βήμα για να διασφαλίσουμε ότι μπορούμε να αξιοποιήσουμε τις δυνατότητες της τεχνητής νοημοσύνης με ασφάλεια και υπευθυνότητα.