ΕΚΤΥΠΩΣΗ
Εκτύπωση αυτής της σελίδας

Το μέλλον σήμερα ως…παρελθόν:Ο καθηγητής Γ.Κοντογιάννης «θέτει όρια» στην τεχνητή νοημοσύνη

10:39 - 28 Ιουλ 2018 | Τεχνολογία
Συνέντευξη στον Βύρωνα Ζάννο Η Τεχνητή Νοημοσύνη (Artificial Intelligence) είναι η νέα επανάσταση στο χώρο της τεχνολογίας που θα αλλάξει καθοριστικά το μέλλον και την καθημερινότητα της ανθρωπότητας. Οι συζητήσεις πολλές και οι προβληματισμοί ακόμα περισσότεροι σε παγκόσμιο επίπεδο σχετικά κυρίως με έναν σημαντικό κίνδυνο: κινδυνεύει ο άνθρωπος να γίνει σκλάβος των ρομπότ αφού αυτά θα είναι πολύ πιο έξυπνα, πολύ πιο ισχυρά και πολύ πιο γρήγορα;

Απάντηση φυσικά δεν υπάρχει ακόμη και οι απόψεις διίστανται.

Οι απόψεις των ειδικών επιστημόνων είναι ευρύτατα παρουσιασμένες στον τύπο και τα μέσα ενημέρωσης.

Το Reporter αποφάσισε να ρωτήσει έναν µή ειδικό επιστήµονα για το ζήτηµα και αυτό επειδή θέλουµε να πάρουµε την άποψη ενός έµπειρου, καταξιωµένου, αλλά ανεξάρτητου – µη προκατειληµµένου όπως οι ειδικοί – κριτή για το ζήτηµα.

Το γενικό ερώτηµα που του θέσαµε ήταν «ποιά είναι τα ζητήµατα που εγείρονται για την κοινωνία από την χρήση µηχανηµάτων ροµπότ µε τεχνητή νοηµοσύνη» και ένα δεύτερο πιο ειδικό ερώτηµα: «θα γίνουµε σκλάβοι των ροµπότ ή θα γίνουµε όπως οι Αρχαίοι Έλληνες που δεν εργάζονταν αλλά είχαν τους σκλάβους (ροµπότ) για όλες τις δουλειές και απλώς φιλοσοφούσαν;»

Ο κύριος Γιάννης Κοντογιάννης είναι Καθηγητής στο Τµήµα Μηχανικών Πληροφορίας στο Πανεπιστήµιο του Cambridge, κάτοχος της έδρας Professorship of Information and Communications. Kαι από την αρχή της συζήτησης µας διευκρίνησε οτι δεν είναι ειδικός στενά στο θέµα της Τεχνητής Νοηµοσύνης, οπότε µας µιλά βάσει της σχέσης του και ερευνητικής του πείρας στην ευρύτερη περιοχή των τεχνολογιών της πληροφορίας και των επικοινωνιών.

Ιδού τι µας είπε:

Η Τεχνητή Νοηµοσύνη είναι µια νεά τεχνολογία. Όπως όλες οι τεχολογίες, δεν είναι ούτε καλή ούτε κακή, το πού θα καταλήξει εξαρτάται από την πολιτική διαχείριση της. Μπορεί, όπως όλες οι τεχνολογίες να χρησιµοποιηθεί είτε θετικά είτε αρνητικά. Για παράδειγµα η πυρηνική ενέργεια µπορεί να µας δίνει ηλεκτρικό ρεύµα χωρίς να ρυπαίνει, αλλά µπορεί να χρησιµοποιηθεί και σε όπλα. Το ζήτηµα λοιπόν µε τις τεχνολογίες είναι η πολιτική τους διαχείριση.

Στην περίπτωση της Τεχνητής Νοηµοσύνης διακρίνω ορισµένα βασικά ζητήµατα:

ΠΡΟΣΒΑΣΙΜΟΤΗΤΑ

Καταρχήν ποιός θα έχει πρόσβαση στην Τεχνητή Νοηµοσύνη; Θα έχουν όλοι; Διότι αν δεν έχουν όλοι, τότε αυτοί που θα τη χρησιµοποιούν θα έχουν µια πάρα πολύ αυξηµένη ισχύ σε σχέση µε τους άλλους.

Είναι λοιπόν θέµα διάχυσης. Δείτε για παράδειγµα το Ιντερνετ που είναι η τεχνολογία µε την πολύ µεγάλη διάχυση. Όλοι έχουν πρόσβαση. Όµως ψηφίστηκε ένας νόµος πριν από ένα µήνα στις ΗΠΑ που ουσιαστικά καταργεί µια από τις βασικές ηθικές αρχές της τεχνολογίας του ιντερνετ, την αρχή του Net Neutrality. Με τον νόµο αυτό, οι πάροχοι του ιντερνετ έχουν δικαίωµα να διαλέγουν σε ποιά sites θα δίνουν πρόσβαση, ή να προωθούν κάποια sites έναντι κάποιων άλλων. Έτσι λοιπόν οι πάροχοι ίντερνετ αποκτούν ξαφνικά µια τεράστια «πολιτική» µεταξύ άλλων δύναµη. Η κατάργηση του Net Neutrality δηµιουργεί ανισότητα στις ευκαιρίες των ανθρώπων από τη χρήση της νέας τεχνολογίας. Αυτό µπορεί να συµβεί και στην Τεχνητή Νοηµοσύνη και σε αυτή την περίπτωση η ισχύς που θα αποκτήσουν όσοι έχουν πρόσβαση θα είναι πολύ µεγάλη.

ΧΡΕΙΑΖΕΤΑΙ ΠΑΙΔΕΙΑ

Ενα δεύτερο ζήτηµα είναι οτι για να χρησιµοποιηθεί σωστά η Τεχνητή Νοηµοσύνη απαιτείται κάποια Παιδεία, κάποια Γνώση.

Για παράδειγµα , παρατηρήθηκε στα προγράµµατα Τεχνητής Νοηµοσύνης που κάνουν ιατρικές διαγνώσεις, οτι αν τους έβαζαν ανθρώπινη φωνή, οι γιατροί υιοθετούσαν αµέσως τη διάγνωση τους, ακόµη και όταν ήταν εµφανώς λάθος. Αγνοούσαν τις δικές τους επιφυλάξεις ή τις δικές τους διαφορετικές διαγνώσεις και θεωρούσαν σωστή αυτή της Τεχνητής Νοηµοσύνης. Όταν άλλαξαν τη φωνή του κοµπιούτερ που έκανε τη διάγνωση και βάλανε µια «ροµποτική» φωνή, αµέσως οι γιατροί άλλαξαν στάση και ήταν πιο επιφυλακτικοί σε αυτό που άκουγαν.

Είναι λοιπόν θέµα Παιδείας το πώς χρησιµοποιούµε την Τεχνητή Νοηµοσύνη και πόσο την εµπιστευόµαστε.

Η τεχνολογία αυτή στηρίζεται στα στοιχεία µε τα οποία την τροφοδοτούµε. Όµως επειδή ονοµάζεται Τεχνητή Νοηµοσύνη και είναι νέα τεχνολογία, την εµπιστευόµαστε περισσότερο από τους εαυτούς µας.

ΤΙ ΘΑ ΚΑΝΕΙ;

Ένα τρίτο ζήτηµα σχετίζεται µε το σκοπό της χρήσης της Τεχνητής Νοηµοσύνης.

Το οτι είναι µια πολύ προηγµένη µορφή τεχνολογίας,  δεν σηµαίνει οτι εξυπηρετεί πάντα το σκοπό για τον οποίο τη θέλουµε. Πάρτε για παράδειγµα τις αµερικανικές τράπεζες. Κάθε φορά που κάποιος ζήταγε ένα δάνειο, του έφτιαχνε ο τραπεζίτης ένα προφίλ. Ο καθένας είχε δικό του προφίλ και δεν ήταν όλα ίδια. Όταν χρησιµοποιήθηκαν αλγόριθµοι, διαπιστώθηκε ότι οι αλγόριθµοι ήταν «ρατσιστές». “Έδιναν δάνεια µε κατά κανόνα πολύ ευνοϊκότερους όρους σε λευκούς πολίτες παρά σε µαύρους ή σε µέλη άλλων µειονοτήτων.”

Γιατί συνέβη αυτό; Διότι παλιότερες στατιστικές µε τις οποίες είχαν τροφοδοτηθεί οι αλγόριθµοι έδειχναν οτι οι µαύροι είναι πιθανότερο να µη πληρώσουν. Όµως ο κόσµος αλλάζει και ενδεχοµένως η τράπεζα να ήθελε να φτιάξει ένα ισορροπηµένο πελατολόγιο για να µη χαρακτηρισθεί «ρατσιστική».

Χρειάζεται λοιπόν πολύ προσοχή και τήρηση κανόνων για να χρησιµοποιηθεί σωστά η Τεχνητή Νοηµοσύνη.

ΗΘΙΚΟ ΠΛΑΙΣΙΟ

Τέταρτον χρειάζεται ένα ηθικό πλαίσιο. Ίσως και µια νέα ηθική στην κοινωνία µε τη χρήση της Τεχνητής Νοηµοσύνης.

Τι όντα είναι τα ροµπότ; Πόσο τα σεβόµαστε; Μπορούµε πχ να τα χτυπάµε; Μπορούµε να τα αγαπάµε; Και τι ευθύνες έχουν; Αν για παράδειγµα ένα αυτοκίνητο χωρίς οδηγό που το οδηγάει ένα σύστηµα Τεχνητής Νοηµοσύνης προκαλέσει ατύχηµα ποιός φταίει; Το ροµπότ; Ο ιδιοκτήτης του; Ο κατασκευαστής του; Και ποιός από τους κατασκευαστές; Αυτός που έφτιαξε έναν αισθητήρα, ή ο κατασκευαστής του συστήµατος των φρένων;

Και αν το αυτοκίνητο ροµπότ πρέπει να «διαλέξει» ποιόν θα σκοτώσει, ένα παιδί στρίβοντας δεξιά ή µια γιαγιά στρίβοντας αριστερά, τι πρέπει να κάνει και µε ποιό κριτήριο; Ποιός θα του πεί το κριτήριο επιλογής για το ποιόν θα σώσει;

Ας δούµε και άλλο παράδειγµα. Αν ένας αλγόριθµος αποφασίζει για την είσπραξη οφειλών και τις κατασχέσεις, µε ποιά κριτήρια θα αποφασίσει πότε θα σου κατάσχει το σπίτι, πώς θα αντιληφθεί αν εσύ προσπαθείς να πληρώσεις και αν είσαι κοντά στο να τα καταφέρεις να πληρώσεις ώστε να σου δώσει λίγο χρόνο ακόµη; Πώς θα αποφασίσει ποιά µέρα θα σου στείλει τους κλητήρες να κατάσχουν το σπίτι σου;

Υπάρχουν πάρα πολλά ηθικά ζητηµατα τα οποία πρέπει να κωδικοποιηθούν και να συσχετισθούν µε το Νόµο. Θα χρειασθεί ένα νέο νοµικό σύστηµα για να ενταχθεί η Τεχνητή Νοηµοσύνη στην κοινωνία.

ΣΧΕΣΕΙΣ ΜΕ ΡΟΜΠΟΤ

Και σχετικά µε αυτό το ζήτηµα υπάρχει και το ζήτηµα επικοινωνίας µε «όντα Τεχνητής Νοηµοσύνης».

Έχει αποδειχθεί ότι από όλες τις «προβλέψεις» της επιστηµονικής φαντασίας, αυτή που πραγµατικά υλοποιήθηκε ήταν η τεχνολογία της επικοινωνίας. Δεν εποικίσαµε άλλους πλανήτες, δεν φτιάξαµε συστήµατα τηλεµεταφοράς, ούτε καν ιπτάµενα αυτοκίνητα δεν φτιάξαµε. Όµως φτιάξαµε κινητά τηλέφωνα και email, άρα αυτό που κυρίως ενδιαφέρει τον άνθρωπο, η προτεραιότητα του, είναι η επικοινωνία. Πώς θα επικοινωνούµε λοιπόν µε τα όντα Τεχνητής Νοηµοσύνης; Πώς θα τα αντιµετωπίζουµε; Σαν πολίτες; Σαν ισότιµα όντα µε τους ανθρώπους ή µε τα ζώα; Θα επιτρέπεται να τα χτυπάµε ή να τα αγαπάµε; Μεγάλα ηθικά ζητήµατα.

ΟΡΙΑ ΣΤΗ ΧΡΗΣΗ ΤΗΣ

Πέµπτο, υπάρχει ένα ζήτηµα µε το πού θα χρησιµοποιήσουµε την Τεχνητή Νοηµοσύνη. “

Όταν πρωτοεµφανίζεται, κάθε τεχνολογία χρησιµοποιείται σε εφαρµογές που προσπαθούν να µιµηθούν παλιότερες τεχνολογίες, αντί να εκµεταλλεύονται τις πραγµατικές της δυνατότητες. Όπως για παράδειγµα οι πρώτες ραδιοεπικοινωνίες χρησιµοποιήθηκαν για την ανάπτυξη του τότε λεγόµενου “ασύρµατου τηλέγραφου”, µέχρι να γίνου αντιληπτές οι τεράστιες δυνατότητες των µαζικών ραδιοφωνικών εκποµπών. Αντίστοιχα, σήµερα η Τεχνητή Νοηµοσύνη πχ παίζει σκάκι και νικάει τους καλύτερους σκακιστές του κόσµου. Αλλά δεν είναι καθόλου σαφές ακόµα - αν και έχουµε κάποιες πρώτες ενδείξεις- ποιες είναι εκείνες οι υπηρεσίες για τις οποίες εγγενώς είναι καταλληλότερη η Τεχνητή Νοηµοσύνη. Σε ποια κατεύθυνση λοιπόν µπορούµε να την χρησιµοποιήσουµε πιο αποτελεσµατικά; Μέχρι που θα τη χρησιµοποιήσουµε, θα τη βάλουµε πχ να πολεµάει, θα τη βάζουµε να δικάζει;”

Και αυτό είναι θέµα πολιτικής διαχείρισης.

Και εδώ φτάνουµε σε ένα από τα σηµαντικότερα ζητήµατα που είναι οτι θα επηρεαστούν οι βασικές αρχές της Δηµοκρατίας και των Ανθρωπίνων Δικαιωµάτων.

ΚΟΙΝΩΝΙΑ ΚΑΙ ΔΗΜΟΚΡΑΤΙΑ

Ήδη διαπιστώνουµε οτι έχει καταργηθεί η ιδιωτικότητα µας .

Όλοι πατάνε το κουµπί που γράφει «I Agree” για να έχουν άµεση χρήση σε κάποια πολύ βολική πλατφόρµα. Αλλάζει λοιπόν η ιδωτικότητα ώς έννοια στην κοινωνία. Και τι θα γίνει µε τη χρήση όλων των στοιχείων µας από την Τεχνητή Νοηµοσύνη; Και αν αυτό το δούµε σε συνδυασµό µε τη διάχυση της και µε το ποιός έχει πρόσβαση στην Τεχνητή Νοηµοσύνη ή σε υψηλότερου επιπέδου Τεχνητή Νοηµοσύνη από τους άλλους, πόση ισχύ αποκτά;

Έχουµε λοιπόν ένα ζήτηµα ισχύος διότι περιορίζεται η ισχύς της Πολιτικής και των εκλεγµένων από τους λαούς εκπροσώπους και αυξάνεται η ισχύς των κολοσσών που ελέγχουν την τεχνολογία.

Ήδη η πολιτική ηγεσία είναι πολύ αποδυναµωµένη. Έχουµε µετατόπιση της ισχύος από τους πολιτικούς στις «Αγορές». Οι κυβερνήσεις δεν µπορούν να ακολουθήσουν την οικονοµική πολιτική που θεωρούν σκόπιµη, πρέπει να ακολουθούν την πολιτική που επιβάλουν οι αγορές.

Και δεν είναι µόνο οι αγορές, είναι και οι κάτοχοι της τεχνολογίας. Για παράδειγµα, ποιός είναι πιο ισχυρός; Η Κεντρική Τράπεζα των ΗΠΑ ή το Google ή το Facebook; Αν οι µάνατζερς των Social Media  ή του Google πούν οτι τα κλείνουν, πόσο θα επηρεαστεί η ζωή µας; Ποιό θα µας ενοχλήσει περισσότερο, µια απόφαση της Κεντρικής Τράπεζας ή το κλείσιµο των Social Media;

“Όλα αυτά αλλάζουν βασικές αρχές της κοινωνίας, όπως η ιδιωτικότητα, οι προσωπικές ελευθερίες, ακόµα και αντίληψή µας για το ίδιο το περιεχόµενο της έννοιας του πολίτη µιας κοινωνίας. Συγχρόνως, µειώνουν τη Δηµοκρατία αφού µεταφέρεται ισχύς από την πολιτική σε αυτούς που «ελέγχουν» την τεχνολογία.” 

Αυτό µε την τεχνητή Νοηµοσύνη θα πολλαπλασιαστεί. 

ΕΙΜΑΣΤΕ ΗΔΗ ΑΡΧΑΙΟΙ ΕΛΛΗΝΕΣ

Όσον αφορά στο δεύτερο ερώτηµα για τους Αρχαίους Έλληνες θα σας απαντήσω ώς εξής:

Είµαστε ήδη σαν Αρχαίοι Έλληνες, εννοώ ο δυτικός κόσµος. Υπάρχει η τεχνολογία και το χρήµα και η δυνατότητα κάλυψης όλων σχεδόν των αναγκών µας µε ελάχιστη εργασία. Δεν θέλουµε να γίνουµε περισσότερο Αρχαίοι Έλληνες, παρόλο που έχουµε τη δυαντότητα. Και δεν θέλουµε διότι αν περιορίσουµε αυτά που κάνουµε, θα έρθει η κατάθλιψη. Όσοι έβγαλαν λεφτά σε νεαρή ηλικία και αποφάσισαν να σταµατήσουν να δουλεύουν, είναι οι πιο δυστυχισµένοι. Οι άνθρωποι για να είναι ευτυχισµένοι πρέπει να αισθάνονται χρήσιµοι. Τι θα γίνει αν τα κάνουν όλα τα ροµπότ; Θα γίνουµε Αρχαίοι Έλληνες φιλόσοφοι ή θα γίνουµε απλώς καταθλιπτικοί;

Τελευταία τροποποίηση στις 14:21 - 28 Ιουλ 2018
Copyright © 1999-2020 Premium S.A. All rights reserved.