Τεχνητή νοημοσύνη

Κλάδος της πληροφορικής ο οποίος ασχολείται με τη σχεδίαση και υλοποίηση υπολογιστικών συστημάτων που μιμούνται την ανθρώπινη συμπεριφορ

Ο όρος τεχνητή νοημοσύνη αναφέρεται στον κλάδο της πληροφορικής ο οποίος ασχολείται με τη σχεδίαση και την υλοποίηση υπολογιστικών συστημάτων που μιμούνται στοιχεία της ανθρώπινης συμπεριφοράς τα οποία υπονοούν έστω και στοιχειώδη ευφυΐα: μάθηση, προσαρμοστικότητα, εξαγωγή συμπερασμάτων, κατανόηση από συμφραζόμενα, επίλυση προβλημάτων κλπ. Ο Τζον Μακάρθι όρισε τον τομέα αυτόν ως «επιστήμη και μεθοδολογία της δημιουργίας νοημόνων μηχανών»..

Ένας ρομποτικός ποδοσφαιριστής αξιοποιεί αλγοριθμικές μεθόδους και εργαλεία της τεχνητής νοημοσύνης.

Η τεχνητή νοημοσύνη αποτελεί σημείο τομής μεταξύ πολλαπλών επιστημών όπως της πληροφορικής, της ψυχολογίας, της φιλοσοφίας, της νευρολογίας, της γλωσσολογίας και της επιστήμης μηχανικών, με στόχο τη σύνθεση ευφυούς συμπεριφοράς, με στοιχεία συλλογιστικής, μάθησης και προσαρμογής στο περιβάλλον, ενώ συνήθως εφαρμόζεται σε μηχανές ή υπολογιστές ειδικής κατασκευής. Διαιρείται στη συμβολική τεχνητή νοημοσύνη, η οποία επιχειρεί να εξομοιώσει την ανθρώπινη νοημοσύνη αλγοριθμικά χρησιμοποιώντας σύμβολα και λογικούς κανόνες υψηλού επιπέδου, και στην υποσυμβολική τεχνητή νοημοσύνη, η οποία προσπαθεί να αναπαράγει την ανθρώπινη ευφυΐα χρησιμοποιώντας στοιχειώδη αριθμητικά μοντέλα που συνθέτουν επαγωγικά νοήμονες συμπεριφορές με τη διαδοχική αυτοοργάνωση απλούστερων δομικών συστατικών («συμπεριφορική τεχνητή νοημοσύνη»), προσομοιώνουν πραγματικές βιολογικές διαδικασίες όπως η εξέλιξη των ειδών και η λειτουργία του εγκεφάλου («υπολογιστική νοημοσύνη»), ή αποτελούν εφαρμογή στατιστικών μεθοδολογιών σε προβλήματα ΤΝ.

Στην κινηματογραφική ταινία επιστημονικής φαντασίας 2001: Η οδύσσεια του διαστήματος (1968) κεντρικό ρόλο στην πλοκή παίζει ένας νοήμων ηλεκτρονικός υπολογιστής. Στην εικόνα φαίνεται το τεχνητό «μάτι» (μία βιντεοκάμερα) με το οποίο ο υπολογιστής κατασκοπεύει το ανθρώπινο πλήρωμα του διαστημοπλοίου όπου είναι εγκατεστημένος.

Η διάκριση σε συμβολικές και υποσυμβολικές προσεγγίσεις αφορά τον χαρακτήρα των χρησιμοποιούμενων εργαλείων, ενώ δεν είναι σπάνια η σύζευξη πολλαπλών προσεγγίσεων (διαφορετικών συμβολικών, υποσυμβολικών, ή ακόμα συμβολικών και υποσυμβολικών μεθόδων) κατά την προσπάθεια αντιμετώπισης ενός προβλήματος. Με βάση τον επιθυμητό επιστημονικό στόχο η ΤΝ κατηγοριοποιείται σε άλλου τύπου ευρείς τομείς, όπως επίλυση προβλημάτων, μηχανική μάθηση, ανακάλυψη γνώσης, συστήματα γνώσης κλπ. Επίσης υπάρχει επικάλυψη με συναφή επιστημονικά πεδία όπως η μηχανική όραση, η επεξεργασία φυσικής γλώσσας ή η ρομποτική, τα οποία μπορούν να τοποθετηθούν μες στο ευρύτερο πλαίσιο της σύγχρονης τεχνητής νοημοσύνης ως ανεξάρτητα πεδία της.

Η λογοτεχνία και ο κινηματογράφος επιστημονικής φαντασίας από τη δεκαετία του 1920 μέχρι σήμερα έχουν δώσει στο ευρύ κοινό την αίσθηση ότι η ΤΝ αφορά την προσπάθεια κατασκευής μηχανικών ανδροειδών ή αυτοσυνείδητων προγραμμάτων υπολογιστή (ισχυρή ΤΝ), επηρεάζοντας μάλιστα ακόμα και τους πρώτους ερευνητές του τομέα. Στην πραγματικότητα οι περισσότεροι επιστήμονες της τεχνητής νοημοσύνης προσπαθούν να κατασκευάσουν λογισμικό ή πλήρεις μηχανές οι οποίες να επιλύουν με αποδεκτά αποτελέσματα ρεαλιστικά υπολογιστικά προβλήματα οποιουδήποτε τύπου (ασθενής ΤΝ), αν και πολλοί πιστεύουν ότι η εξομοίωση ή η προσομοίωση της πραγματικής ευφυΐας, η ισχυρή ΤΝ, πρέπει να είναι ο τελικός στόχος.

Η σύγχρονη τεχνητή νοημοσύνη αποτελεί ένα από τα πλέον «μαθηματικοποιημένα» και ταχέως εξελισσόμενα πεδία της πληροφορικής. Σήμερα, ο τομέας αξιοποιεί περισσότερο υποσυμβολικές μεθόδους και εργαλεία καταγόμενα από τα εφαρμοσμένα μαθηματικά και τις επιστήμες μηχανικών, παρά από τη θεωρητική πληροφορική και τη μαθηματική λογική όπως συνέβαινε πριν το 1990. Σε ακαδημαϊκό επίπεδο η τεχνητή νοημοσύνη μελετάται επίσης από την ηλεκτρονική μηχανική, ενώ συνιστά ένα από τα σημαντικότερα θεμελιακά συστατικά του διεπιστημονικού γνωστικού πεδίου της γνωσιακής επιστήμης. Σύγχρονες κάρτες γραφικών (GPUs), όπως αυτές που παράγονται από τις εταιρίες Nvidia, AMD και άλλες, κάνοντας χρήση προηγμένων ημιαγώγων υλικών, προσφέρουν την υψηλή υπολογιστική ισχύ που απαιτείται για την ανάπτυξη πολύπλοκων αλγορίθμων μηχανικής μάθησης.

Ιστορικό

Επεξεργασία
 
Ένα διάγραμμα δομής και λειτουργίας του απλού τεχνητού νευρώνα.

Κατά τη δεκαετία του 1940 εμφανίστηκε η πρώτη μαθηματική περιγραφή τεχνητού νευρωνικού δικτύου, με πολύ περιορισμένες δυνατότητες επίλυσης αριθμητικών προβλημάτων. Καθώς ήταν εμφανές ότι οι ηλεκτρονικές υπολογιστικές συσκευές που κατασκευάστηκαν μετά τον Β΄ Παγκόσμιο Πόλεμο ήταν ένα τελείως διαφορετικό είδος μηχανής από ό,τι προηγήθηκε, η συζήτηση για την πιθανότητα εμφάνισης μηχανών με νόηση ήταν στην ακμή της. Το 1950 ο μαθηματικός Άλαν Τούρινγκ, πατέρας της θεωρίας υπολογισμού και προπάτορας της τεχνητής νοημοσύνης, πρότεινε τη δοκιμή Τούρινγκ·μία απλή δοκιμασία που θα μπορούσε να εξακριβώσει αν μία μηχανή διαθέτει ευφυΐα. Η τεχνητή νοημοσύνη θεμελιώθηκε τυπικά ως πεδίο στη συνάντηση ορισμένων επιφανών Αμερικανών επιστημόνων του τομέα το 1956 (Τζον Μακάρθι, Μάρβιν Μίνσκυ, Κλοντ Σάνον κλπ). Τη χρονιά αυτή παρουσιάστηκε για πρώτη φορά και το Logic Theorist, ένα πρόγραμμα το οποίο στηριζόταν σε συμπερασματικούς κανόνες τυπικής λογικής και σε ευρετικούς αλγορίθμους αναζήτησης για να αποδεικνύει μαθηματικά θεωρήματα.

Επόμενοι σημαντικοί σταθμοί ήταν η ανάπτυξη της γλώσσας προγραμματισμού LISP το 1958 από τον Μακάρθι, δηλαδή της πρώτης γλώσσας συναρτησιακού προγραμματισμού η οποία έπαιξε πολύ σημαντικό ρόλο στη δημιουργία εφαρμογών ΤΝ κατά τις επόμενες δεκαετίες, η εμφάνιση των γενετικών αλγορίθμων την ίδια χρονιά από τον Φρίντμπεργκ και η παρουσίαση του βελτιωμένου νευρωνικού δικτύου perceptron το '62 από τον Ρόσενμπλατ. Κατά τα τέλη της δεκαετίας του '60 όμως άρχισε ο χειμώνας της ΤΝ, μία εποχή κριτικής, απογοήτευσης και υποχρηματοδότησης των ερευνητικών προγραμμάτων καθώς όλα τα μέχρι τότε εργαλεία του χώρου ήταν κατάλληλα μόνο για την επίλυση εξαιρετικά απλών προβλημάτων. Στα μέσα του '70 ωστόσο προέκυψε μία αναθέρμανση του ενδιαφέροντος για τον τομέα λόγω των εμπορικών εφαρμογών που απέκτησαν τα έμπειρα συστήματα, μηχανές ΤΝ με αποθηκευμένη γνώση για έναν εξειδικευμένο τομέα και δυνατότητα ταχείας εξαγωγής λογικών συμπερασμάτων, τα οποία συμπεριφέρονται όπως ένας άνθρωπος ειδικός στον αντίστοιχο τομέα. Παράλληλα έκανε την εμφάνισή της η γλώσσα λογικού προγραμματισμού Prolog η οποία έδωσε νέα ώθηση στη συμβολική ΤΝ, ενώ στις αρχές της δεκαετίας του '80 άρχισαν να υλοποιούνται πολύ πιο ισχυρά και με περισσότερες εφαρμογές νευρωνικά δίκτυα, όπως τα πολυεπίπεδα perceptron και τα δίκτυα Hopfield. Ταυτόχρονα οι γενετικοί αλγόριθμοι και άλλες συναφείς μεθοδολογίες αναπτύσσονταν πλέον από κοινού, κάτω από την ομπρέλα του εξελικτικού υπολογισμού.

Κατά τη δεκαετία του '90, με την αυξανόμενη σημασία του Internet, ανάπτυξη γνώρισαν οι ευφυείς πράκτορες, αυτόνομο λογισμικό ΤΝ τοποθετημένο σε κάποιο περιβάλλον με το οποίο αλληλοεπιδρά, οι οποίοι βρήκαν μεγάλο πεδίο εφαρμογών λόγω της εξάπλωσης του Διαδικτύου. Οι πράκτορες στοχεύουν συνήθως στην παροχή βοήθειας στους χρήστες τους, στη συλλογή ή ανάλυση γιγάντιων συνόλων δεδομένων ή στην αυτοματοποίηση επαναλαμβανόμενων εργασιών (π.χ. βλέπε διαδικτυακό ρομπότ), ενώ στους τρόπους κατασκευής και λειτουργίας τους συνοψίζουν όλες τις γνωστές μεθοδολογίες ΤΝ που αναπτύχθηκαν με το πέρασμα του χρόνου. Έτσι σήμερα, όχι σπάνια, η ΤΝ ορίζεται ως η επιστήμη που μελετά τη σχεδίαση και υλοποίηση ευφυών πρακτόρων.

Επίσης τη δεκαετία του '90 η ΤΝ, κυρίως η μηχανική μάθηση και η ανακάλυψη γνώσης, άρχισε να επηρεάζεται πολύ από τη θεωρία πιθανοτήτων και τη στατιστική. Τα δίκτυα πεποιθήσεων υπήρξαν η αφετηρία αυτής της νέας μετακίνησης, που συνέδεσε τελικά την ΤΝ με τα πιο σχολαστικά μαθηματικά εργαλεία της στατιστικής και της επιστήμης μηχανικών, όπως τα κρυμμένα μαρκοβιανά μοντέλα και τα φίλτρα Κάλμαν. Αυτή η νέα πιθανοκρατική προσέγγιση έχει αυστηρά υποσυμβολικό χαρακτήρα, όπως και οι τρεις μεθοδολογίες οι οποίες κατηγοριοποιούνται κάτω από την ετικέτα της υπολογιστικής νοημοσύνης: τα νευρωνικά δίκτυα, ο εξελικτικός υπολογισμός και η ασαφής λογική.

Ακολουθούν οι πιο σπουδαίες στιγμές στην ιστορία της ΤΝ:

Χρόνος Εξέλιξη
1950 Ο Άλαν Τούρινγκ περιγράφει τη δοκιμή Τούρινγκ, που επιδιώκει να εξετάσει την ικανότητα μιας μηχανής να συμμετάσχει απρόσκοπτα σε μια ανθρώπινη συνομιλία.
1951 Τα πρώτα προγράμματα ΤΝ γράφονται για τον υπολογιστή Ferranti Mark I στο Πανεπιστήμιο του Μάντσεστερ: ένα πρόγραμμα που παίζει ντάμα από τον Κρίστοφερ Στράκλι και ένα που παίζει σκάκι από τον Ντίτριχ Πρίνζ.
1956 Ο Τζον Μακάρθι πλάθει τον όρο «Τεχνητή Νοημοσύνη» ως κύριο θέμα της διάσκεψης του Ντάρτμουθ.
1958 Ο Τζον Μακάρθι εφευρίσκει τη γλώσσα προγραμματισμού Lisp.
1965 Ο Έντουαρτ Φάιγκενμπαουμ ξεκινά το Dendral, μια δεκαετή προσπάθεια ανάπτυξης λογισμικού που θα συμπεράνει τη μοριακή δομή οργανικών ενώσεων χρησιμοποιώντας ενδείξεις επιστημονικών οργάνων. Ήταν το πρώτο έμπειρο σύστημα (expert system).
1966 Ιδρύεται το Εργαστήριο Μηχανικής Νοημοσύνης στο Εδιμβούργο – το πρώτο από μια σημαντική σειρά εγκαταστάσεων που οργανώνονται από τον Ντόναλντ Μίτσι και άλλους.
1970 Αναπτύσσεται το Planner και χρησιμοποιείται στο SHRDLU, μια εντυπωσιακή επίδειξη αλληλεπίδρασης μεταξύ ανθρώπου και υπολογιστή.
1971 Ξεκινά η εργασία πάνω στο σύστημα αυτόματης απόδειξης θεωρημάτων Boyer-Moore στο Εδιμβούργο.
1972 Η γλώσσα προγραμματισμού Prolog αναπτύσσεται από τον Αλάν Κολμεροέρ.
1973 Ρομπότ συναρμολόγησης «Φρέντι» στο Εδιμβούργο: ένα ευπροσάρμοστο σύστημα συναρμολόγησης που ελέγχεται από υπολογιστές.
1974 Ο Τέντ Σόρτλιφ γράφει τη διατριβή του για το πρόγραμμα MYCIN (Στάνφορντ), το οποίο κατέδειξε μια πολύ πρακτική προσέγγιση στην ιατρική διάγνωση που βασίζεται σε κανόνες, ενώ λειτουργεί ακόμα και με παρουσία αβεβαιότητας. Αν και δανείστηκε από το DENDRAL, οι δικές του συνεισφορές επηρέασαν έντονα το μέλλον των έμπειρων συστημάτων, ένα μέλλον με πολλαπλές εμπορικές εφαρμογές.
1991 Η εφαρμογή σχεδίασης ενεργειών DART χρησιμοποιείται αποτελεσματικά στον Α' Πόλεμο του Κόλπου και ανταμείβει 30 χρόνια έρευνας στην ΤΝ του Αμερικανικού Στρατού.
1994 Ντίκμαννς και Ντάιμλερ-Μπενζ οδηγούν περισσότερο από 1.000 χλμ. σε μια εθνική οδό του Παρισιού υπό συνθήκες βαρείας κυκλοφορίας και σε ταχύτητες ως και 130 χλμ./ώρα. Επιδεικνύουν αυτόνομη οδήγηση σε ελεύθερες παρόδους, οδήγηση σε συνοδεία, αλλαγή παρόδων και αυτόματη προσπέραση άλλων οχημάτων.
1997 Ο υπολογιστής Deep blue της IBM κερδίζει τoν παγκόσμιο πρωταθλητή σκακιού Γκάρι Κασπάροφ.
1998 Κυκλοφορεί ο Φέρμπι της Tiger Electronics και γίνεται η πρώτη επιτυχημένη εμφάνιση ΤΝ σε οικιακό περιβάλλον.
1999 Η Sony λανσάρει το AIBO, που είναι ένα από τα πρώτα αυτόνομα κατοικίδια ΤΝ.
2000 Το ρομπότ Nomad εξερευνεί απομακρυσμένες περιοχές στην Ανταρκτική, αναζητώντας δείγματα μετεωριτών.
2004 Η DARPA ξεκινά το πρόγραμμα DARPA Grand Challenge («Μεγάλη Πρόκληση DARPA»), που προκαλεί τους συμμετέχοντες να δημιουργήσουν αυτόνομα οχήματα για ένα χρηματικό βραβείο.
2005 Γεννιέται το Blue Brain, ένα project που προσομοιάζει τον εγκέφαλο σε μοριακό επίπεδο.
2009 Η Google δημιουργεί το πρώτο αυτόνομο αυτοκίνητο.
2012 Ένα βαθύ νευρωνικό δίκτυο (AlexNet) κερδίζει με μεγάλη διαφορά τον διαγωνισμό αναγνώρισης εικόνων ImageNet, σηματοδοτώντας την έναρξη μίας στροφής προς τη βαθειά μάθηση.
2013 Η DeepMind αναπτύσει ένα σύστημα βασισμένο σε ενισχυτική μάθηση και για να παίξει διάφορα παιχνίδια Atari, συμπεριλαμβανομένων των Breakout και Pong. Το σύστημα εκπαιδεύτηκε χρησιμοποιώντς αποκλειστικά τα εικονοστοιχεία / καρέ από την οθόνη του βιντεοπαιχνιδιού ως είσοδο, χωρίς να χρειάζεται ρητά κανέναν κανόνα ή γνώση του παιχνιδιού.[1]
2017 Εισάγεται η νευρωνική αρχιτεκτονική Transformer από τα εργαστήρια της Google Brain, στηριγμένη στον νευρωνικό μηχανισμό προσοχής και αυτοπροσοχής, σηματοδοτώντας μία μεγάλη αύξηση επιδόσεων σε προβλήματα επεξεργασίας φυσικής γλώσσας (αρχικά), όπως π.χ. στην αυτόματη μετάφραση κειμένου μεταξύ γλωσσών.[2]
2022 Η OpenAI δημιουργεί το ChatGPT 3, ένα σύστημα τεχνητής νοημοσύνης βασισμένο στην αρχιτεκτονική Transformer, που μιλάει σε φυσική γλώσσα, με γνώσεις σε ευρεία γκάμα θεμάτων, ικανότητα συγγραφής επιστημονικού ή λογοτεχνικού κειμένου, και ικανότητα συγγραφής προγραμμάτων ηλεκτρονικού υπολογιστή σε διάφορες γλώσσες προγραμματισμού.
2024 H Cognition δημιουργεί το Devin AI, ένα εξελιγμένο σύστημα τεχνητής νοημοσύνης διαμορφωμένο αποκλειστικά για τη σχεδίαση και τον προγραμματισμό λογισμικού. Η εταιρεία υποστηρίζει πως είναι το πρώτο πλήρες αυτόνομο πρόγραμμα με τις συγκεκριμένες δυνατότητες.[3]

Σχολές σκέψης

Επεξεργασία

Η συμβατική τεχνητή νοημοσύνη εμπλέκει μεθόδους μηχανικής μάθησης (machine learning), που χαρακτηρίζονται από αυστηρούς μαθηματικούς αλγόριθμους και στατιστικές μεθόδους ανάλυσης. Διακρίνεται σε:

  • Έμπειρα ή Εξειδικευμένα συστήματα (Expert systems), που εφαρμόζουν προγραμματισμένες ρουτίνες λογικής, σχεδιασμένες αποκλειστικά για μία συγκεκριμένη εργασία, προκειμένου να εξαχθεί κάποιο συμπέρασμα. Για το σκοπό αυτό, διεξάγεται επεξεργασία μεγάλων ποσοτήτων γνωστών πληροφοριών.
  • Λογική κατά περίπτωση (Case based reasoning). Η επίλυση ενός προβλήματος βασίζεται στην προηγούμενη επίλυση παρόμοιων προβλημάτων.
  • Μπαϋεσιανά δίκτυα (Bayesian networks). Βασίζονται στη στατιστική ανάλυση για τη λήψη αποφάσεων.
  • Συμπεριφορική τεχνητή νοημοσύνη (Behavior based AI). Μέθοδος τεμαχισμού της λογικής διαδικασίας και στη συνέχεια χειροκίνητης οικοδόμησης του αποτελέσματος.
 
Διάγραμμα δομής ενός απλού τεχνητού νευρωνικού δικτύου δύο επιπέδων.

Η υπολογιστική τεχνητή νοημοσύνη βασίζεται στη μάθηση μέσω επαναληπτικών διαδικασιών (ρύθμιση παραμέτρων). Η μάθηση βασίζεται σε εμπειρικά δεδομένα και σε μη-συμβολικές μεθόδους. Διακρίνεται σε:

  • Τεχνητά νευρωνικά δίκτυα (Artificial neural networks) με πολύ ισχυρές δυνατότητες αναγνώρισης προτύπων (pattern recognition). Προσομοιάζουν τη λειτουργία των νευρώνων των εμβίων όντων.
  • Συστήματα Ασαφούς λογικής (Fuzzy logic systems). Αποτελούν τεχνικές λήψης απόφασης κάτω από αβεβαιότητα. Βασίζονται στην ύπαρξη μη-αυστηρά διαχωρισμένων καταστάσεων, των οποίων η βαρύτητα λαμβάνεται υπόψη κατά περίπτωση. Υπάρχουν ήδη πολλές εφαρμογές των τεχνικών αυτών.
  • Εξελικτική υπολογιστική (Evolutionary computation). Η ανάπτυξή τους προέκυψε από τη μελέτη των έμβιων οργανισμών και αφορούν σε έννοιες όπως του πληθυσμού, της μετάλλαξης και της φυσικής επιλογής (επιβίωση του πιο προσαρμοσμένου) για την ακριβέστερη επίλυση ενός προβλήματος. Οι μέθοδοι αυτοί μπορούν να διακριθούν περαιτέρω σε εξελικτικούς αλγόριθμους (evolutionary algorithms) και σε νοημοσύνης σμήνους (swarm intelligence), όπως π.χ. οι αλγόριθμοι που προσομοιάζουν τη συμπεριφορά μίας κοινωνίας μυρμηγκιών.

Δείτε επίσης

Επεξεργασία

Παραπομπές

Επεξεργασία
  1. Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Graves, Alex; Antonoglou, Ioannis; Wierstra, Daan; Riedmiller, Martin (2013-12-19). «Playing Atari with Deep Reinforcement Learning». arXiv:1312.5602 [cs.LG]. https://arxiv.org/abs/1312.5602. 
  2. Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (2017-12-05). «Attention Is All You Need». arXiv:1706.03762 [cs]. http://arxiv.org/abs/1706.03762. 
  3. «The new AI disruption tool: Devin(e) or Devil for software engineers?». The Economic Times. 2024-03-20. ISSN 0013-0389. https://economictimes.indiatimes.com/news/company/corporate-trends/the-new-ai-disruption-tool-devine-or-devil-for-software-engineers/articleshow/108654112.cms?from=mdr. Ανακτήθηκε στις 2024-03-22. 

Βιβλιογραφία και πηγές

Επεξεργασία

Εξωτερικοί σύνδεσμοι

Επεξεργασία