Πόσο επικίνδυνη είναι η τεχνητή νοημοσύνη;
Ατάκτως Ειρημένα
Με τη Δρ.Αναστασία Αρτεμίου
Ακαδημαϊκό
17:30:49,02/01/2021

Ερωτήματα για το πως μπορεί να χρησιμοποιηθεί σωστά η Τεχνητή Νοημοσύνη (AI) θέτει η Ακαδημαϊκός Δρ. Αναστασία Αρτεμίου.Φωτογραφία από Gerd Altmann από το Pixabay
Ο πρόεδρος της Ρωσίας Βλαντιμίρ Πούτιν πρόσφατα δήλωσε: «Η τεχνητή νοημοσύνη είναι το μέλλον, όχι μόνο για τη Ρωσία, αλλά για όλη την ανθρωπότητα. Έρχεται με τεράστιες ευκαιρίες, αλλά και απειλές που είναι δύσκολο να προβλεφθούν. Όποιος γίνει ο ηγέτης σε αυτόν τον τομέα θα γίνει ο κυβερνήτης του κόσμου».
Ο Stephen Hawking, ο Tesla και ο ηγέτης και καινοτόμος του SpaceX, Elon Musk, υποδηλώνουν ότι η τεχνητή νοημοσύνη μπορεί ενδεχομένως να είναι πολύ επικίνδυνη. Δεδομένου ότι οι πρόσφατες εξελίξεις έχουν καταστήσει δυνατές τις υπερ-ευφυείς μηχανές πολύ νωρίτερα από ό, τι πιστεύαμε αρχικά, είναι πλέον καιρός να προσδιορίσουμε τους κινδύνους που δημιουργεί η τεχνητή νοημοσύνη.
Στην ουσία, η τεχνητή νοημοσύνη αφορά στην κατασκευή μηχανών που μπορούν να σκέφτονται και να ενεργούν έξυπνα. Ενώ οι περισσότερες τρέχουσες εφαρμογές χρησιμοποιούνται για να επηρεάσουν θετικά την ανθρωπότητα, οποιοδήποτε ισχυρό εργαλείο μπορεί να χρησιμοποιηθεί για επιβλαβείς σκοπούς, όταν πέσει σε λάθος χέρια.
Οι κίνδυνοι

Με τη διάδοση προπαγάνδας σε άτομα που αναγνωρίζονται μέσω αλγορίθμων και προσωπικών δεδομένων, η AI μπορεί να τους στοχεύσει και να διαδώσει ό, τι πληροφορίες θέλει, σε οποιαδήποτε μορφή θα βρει πιο πειστική είτε είναι αληθινή είτε φανταστική.Φωτογραφία από Gerd Altmann από το Pixabay
Αρχικά, τα αυτόνομα όπλα που έχουν προγραμματιστεί για να σκοτώνουν, είναι ένας τρόπος με τον οποίο η AI μπορεί να δημιουργήσει κινδύνους. Θα μπορούσε ακόμη και να είναι εύλογο να περιμένουμε ότι ο αγώνας πυρηνικών όπλων θα αντικατασταθεί από έναν παγκόσμιο αγώνα αυτόνομων όπλων.
Εκτός από την ανησυχία ότι τα αυτόνομα όπλα μπορεί να αποκτήσουν «δικό τους μυαλό», μια πιο επικείμενη ανησυχία είναι οι κίνδυνοι που μπορεί να έχουν τα αυτόνομα όπλα σε ένα άτομο ή μια κυβέρνηση που δεν εκτιμά την ανθρώπινη ζωή. Μόλις αναπτυχθούν, είναι πιθανό να είναι δύσκολο να αποσυναρμολογηθούν ή να καταπολεμηθούν.
Επιπρόσθετα, τα κοινωνικά μέσα μέσω των αυτόνομων αλγορίθμων είναι πολύ αποτελεσματικά στο μάρκετινγκ. Ξέρουν ποιοι είμαστε και τι μας αρέσει. Εξακολουθούν να διεξάγονται έρευνες για να προσδιοριστεί το σφάλμα της Cambridge Analytica και άλλων που σχετίζονται με την εταιρεία που χρησιμοποίησε τα δεδομένα από 50 εκατομμύρια χρήστες του Facebook για να προσπαθήσουν να επηρεάσουν το αποτέλεσμα των προεδρικών εκλογών του 2016 και του δημοψηφίσματος Brexit του Ηνωμένου Βασιλείου, αλλά εάν αυτές οι κατηγορίες είναι σωστές, τότε αποδεικνύεται ξεκάθαρα η δύναμη της AI για κοινωνική χειραγώγηση. Με τη διάδοση προπαγάνδας σε άτομα που αναγνωρίζονται μέσω αλγορίθμων και προσωπικών δεδομένων, η AI μπορεί να τους στοχεύσει και να διαδώσει ό, τι πληροφορίες θέλει, σε οποιαδήποτε μορφή θα βρει πιο πειστική είτε είναι αληθινή είτε φανταστική.
O Big Brother
Είναι πλέον γνωστό ότι υπάρχει η δυνατότητα να παρακολουθείται και να αναλύεται κάθε κίνηση ενός ατόμου στο διαδίκτυο, όταν πρόκειται για την καθημερινή πιχείρησή τους. Οι κάμερες είναι σχεδόν παντού και οι αλγόριθμοι αναγνώρισης προσώπου γνωρίζουν ποιοι είμαστε. Στην πραγματικότητα, αυτός είναι ο τύπος των πληροφοριών που θα τροφοδοτήσουν το σύστημα κοινωνικής πίστωσης της Κίνας που αναμένεται να δώσει σε κάθε έναν από τους 1,4 δισεκατομμύρια πολίτες της προσωπικό σκορ ανάλογα με τη συμπεριφορά τους, αν για παράδειγμα καπνίζουν σε περιοχές μη καπνιζόντων ή πόσο χρόνο ξοδεύουν παίζοντας βιντεοπαιχνίδια. Όταν ο Big Brother παρακολουθεί και στη συνέχεια παίρνει αποφάσεις βάσει αυτών των πληροφοριών, δεν είναι μόνο μια εισβολή της ιδιωτικής ζωής, αλλά μπορεί γρήγορα να μετατραπεί σε κοινωνική καταπίεση.
Μέρος αυτού που οι άνθρωποι εκτιμούν σε μηχανήματα που λειτουργούν με τεχνολογία AI είναι η αποδοτικότητα και η αποτελεσματικότητά τους. Αλλά, εάν δεν είμαστε ξεκάθαροι με τους στόχους που θέτουμε για τις μηχανές AI, θα μπορούσε να είναι επικίνδυνο, εάν μια μηχανή δεν είναι εξοπλισμένη με τους ίδιους στόχους που έχουμε. Για παράδειγμα, μια εντολή:«Να με μεταφέρει στο αεροδρόμιο το συντομότερο δυνατό», μπορεί να έχει τρομερές συνέπειες. Χωρίς να διευκρινιστεί ότι οι κανόνες του δρόμου πρέπει να γίνονται σεβαστοί, επειδή εκτιμούμε την ανθρώπινη ζωή, ένα μηχάνημα θα μπορούσε να επιτύχει αποτελεσματικά τον στόχο του, να σας «οδηγήσει» στο αεροδρόμιο, όσο το δυνατόν γρηγορότερα και να κάνει κυριολεκτικά αυτό που ζητήσατε, αλλά αφήνοντας πίσω του μια σειρά ατυχημάτων.
Επίλογος
Οποιαδήποτε ισχυρή τεχνολογία μπορεί να χρησιμοποιηθεί σωστά. Σήμερα, η τεχνητή νοημοσύνη χρησιμοποιείται για πολλές καλές αιτίες, όπως για να μας βοηθήσει να κάνουμε καλύτερες ιατρικές διαγνώσεις, να βρούμε νέους τρόπους για να θεραπεύσουμε τον καρκίνο και να κάνουμε τα αυτοκίνητά μας ασφαλέστερα. Δυστυχώς, καθώς επεκτείνονται οι δυνατότητες τεχνητής νοημοσύνης, θα δούμε επίσης ότι χρησιμοποιείται για επικίνδυνους ή κακόβουλους σκοπούς. Δεδομένου ότι η τεχνολογία της τεχνητής νοημοσύνης εξελίσσεται τόσο γρήγορα, είναι ζωτικής σημασίας για εμάς να αρχίσουμε να συζητάμε για τους καλύτερους τρόπους για να αναπτυχθεί θετικά η AI, ελαχιστοποιώντας ταυτόχρονα τις καταστροφικές δυνατότητές της.
©Τypologos.com 2021