Ο Σαμ Άλτμαν, που χάρισε στον κόσμο το εργαλείο του ChatGPT ήταν αφοπλιστικά ειλικρινής μιλώντας σε ειδική επιτροπή του αμερικανικού κογκρέσου.
Eχουν γραφτεί χιλιάδες λέξεις για την τεχνητή νοημοσύνη (γενικότερα) και το ChatGPT (ειδικότερα) τους τελευταίους μήνες σε όλο τον πλανήτη.
Τα ξημερώματα της Τετάρτης μίλησε ο ειδικός, ο άνθρωπος που ανακάλυψε το ChatGPT και μάλιστα δημοσίως, σε ειδική υποεπιτροπή του αμερικανικού κογκρέσου.
Ο διευθύνων σύμβουλος της OpenAI Σαμ Αλτμαν δεν μάσησε τα λόγια του: "Αν η Τεχνητή Νοημοσύνη πάρει τον λάθος δρόμο, τότε 'τη βάψαμε' όλοι μας. Πρέπει να δράσουμε από κοινού με την κυβέρνηση ώστε να προλάβουμε αυτό το ενδεχόμενο".
Ο,τι δηλαδή ισχύει για κάθε μεγάλη ανακάλυψη, ισχύει, κατά τον Αλτμαν, και την τεχνητή νοημοσύνη. Ο κίνδυνος να πάρει λάθος δρόμος αν πέσει στα εντελώς λάθος χέρια είναι υπαρκτός και πρέπει να αντιμετωπιστεί από τις οργανωμένες κοινωνίες ανά τον κόσμο.
Ο Σαμ Άλτμαν, επίσης, ισχυρίστηκε ότι η Τεχνητή Νοημοσύνη "ίσως γίνει αιτία να καταργηθούν κάποιες θέσεις εργασίας, αλλά θα δημιουργήσει πολλές άλλες νέες. Και πέραν αυτού, η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να βελτιώσει σχεδόν όλες τις πλευρές της ζωής μας, να προσφέρει λύσεις στις μεγαλύτερες προκλήσεις της ανθρωπότητας, όπως πχ την κλιματική αλλαγή, τη θεραπεία του καρκίνου κ.α."
Σύμφωνα με την πρόταση του Αλτμαν, θα πρέπει να δημιουργηθεί όσο πιο άμεσα γίνεται ειδική υπηρεσία που θα χορηγεί άδειες για τη δημιουργία μεγάλης κλίμακας μοντέλων Τεχνητής Νοημοσύνης αλλά και τη σχολιαστική τήρηση των κανόνων ασφαλείας. Όπως συγκεκριμένα γράφει η Washington Post, ο Αλτμαν υποστήριξε μια σειρά κανονισμών - συμπεριλαμβανομένης μιας νέας κυβερνητικής υπηρεσίας που είναι επιφορτισμένη με τη δημιουργία προτύπων για το χώρο - για να αντιμετωπίσει τις αυξανόμενες ανησυχίες ότι η τεχνητή νοημοσύνη θα μπορούσε να διαστρεβλώσει την πραγματικότητα και να δημιουργήσει πρωτοφανείς κινδύνους για την ασφάλεια. Συγκέντρωσε μια σειρά από "επικίνδυνες" συμπεριφορές που παρουσιάζονται από τεχνολογίες όπως το ChatGPT, συμπεριλαμβανομένης της διάδοσης "μιας διαδραστικής παραπληροφόρησης" και της συναισθηματικής χειραγώγησης.
Πρότεινε επίσης ότι εμπειρογνώμονες θα μπορούσαν να διεξάγουν ανεξάρτητους ελέγχους, δοκιμάζοντας την απόδοση των μοντέλων σε διάφορες μετρήσεις.
Υποστήριξε ότι η διαδικασία ανάπτυξης των μοντέλων τεχνητής νοημοσύνης του OpenAI δίνει στα ιδρύματα χρόνο να κατανοήσουν πιθανές απειλές και επιβεβαίωσε ότι η εταιρεία του θα συνεχίσει να αναπτύσσει την τεχνολογία, παρά τους πιθανούς κινδύνους.
Μέλη της υποεπιτροπής Δικαιοσύνης της Γερουσίας εξέφρασαν βαθύ φόβο για την ταχεία εξέλιξη της τεχνητής νοημοσύνης, υποδεικνύοντας επανειλημμένα ότι οι πρόσφατες εξελίξεις θα μπορούσαν να είναι πιο διαδραστικές από το Διαδίκτυο - ή τόσο επικίνδυνες όσο η ατομική βόμβα. Οι νομοθέτες και από τα δύο κόμματα εξέφρασαν ανοιχτά την ιδέα της δημιουργίας μιας νέας κυβερνητικής υπηρεσίας επιφορτισμένης με τη ρύθμιση της τεχνητής νοημοσύνης, αν και οι προηγούμενες προσπάθειες να δημιουργηθεί μια συγκεκριμένη υπηρεσία με επίβλεψη της Silicon Valley έχουν βαλτώσει στο Κογκρέσο.
Ο Άλτμαν είπε ότι το OpenAI έχει υιοθετήσει ορισμένες πολιτικές για την αντιμετώπιση αυτών των κινδύνων, οι οποίες περιλαμβάνουν την απαγόρευση χρήσης του ChatGPT για τη "δημιουργία μεγάλου όγκου υλικού εκστρατείας".
Όσον αφορά την ρύθμιση, η Ευρώπη ελπίζει να πρωτοστατήσει εκ νέου με ένα επί τούτου ρυθμιστικό πλαίσιο, όπως έκανε με τον κανονισμό για τα προσωπικά δεδομένα, ενώ στις 12 Μαίου οι ευρωβουλευτές ενέκριναν νέους κανόνες διαφάνειας και διαχείρισης κινδύνου για τα συστήματα τεχνητής νοημοσύνη. Όπως αναφέρεται, συστήματα τεχνητής νοημοσύνης με απαράδεκτο επίπεδο κινδύνου για την ασφάλεια των ανθρώπων θα απαγορεύονται αυστηρά, συμπεριλαμβανομένων συστημάτων που αναπτύσσουν υποσυνείδητες ή σκόπιμες τεχνικές χειραγώγησης, εκμεταλλεύονται τα τρωτά σημεία των ανθρώπων ή χρησιμοποιούνται για "κοινωνική αξιολόγηση" (ταξινόμηση ατόμων με βάση την κοινωνική τους συμπεριφορά, την κοινωνικοοικονομική κατάσταση, την προσωπική τους κατάσταση, τα χαρακτηριστικά τους).
Το τελικό συμπέρασμα είναι ότι χρειάζεται προσοχή. Και κανόνες. Η χρήση του εργαλείου δεν μπορεί να είναι ουδέτερη γι' αυτό και είναι απαραίτητο κάποιου είδους ρυθμιστικό πλαίσιο.
Πηγή:news247.gr
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου