ΥΠΟΛΟΓΙΣΤΙΚΗ ΝΟΗΜΟΣΥΝΗ ΙΙ
Στη συνέχεια παρουσιάζουμε τις προσομοιώσεις που έγιναν για το πρόβλημα της αναγνώρισης της δομής ενός δικτύου. Καθώς η μέθοδος καθοδηγείται από δεδομένα, ώστε να παράγει τα δεδομένα, χρησιμοποιήσαμε ένα μοντέλο του τύπου που δίνεται στη (2). Θεωρήσαμε ότι το δ(n) είναι θόρυβος με μηδενικό μέσο όρο και διασπορά R=1.0. Επίσης οι μετρήσεις έχουν κανονικοποιηθεί πριν τη χρήση τους, και οι πρώτες 10 τιμές έχουν παραλειφθεί γιατί είναι πολύ κοντά στο μηδέν. Για κάθε νευρώνα εξόδου που χρησιμοποιείται, το διάνυσμα βαρών αρχικοποιήθηκε στο μηδέν με διασπορά Q=0.1, και P(0/τ) αρχικοποιήθηκε στο I/0.0001.
Και οι δύο αλγόριθμοι καταμερισμού, που περιγράφονται παραπάνω εξομοιώνονται, για τα ίδια δεδομένα και δίνουν παρόμοια αποτελέσματα. Για κάθε σχήμα, εκτελέστηκαν 100 Monte Carlo τρεξίματα και σε όλες τις περιπτώσεις το αληθινό μοντέλο επιλέχτηκε με μια εκ των υστέρων πιθανότητα περισσότερη από 99.7%. Και οι δύο υλοποιήσεις ήταν 100% επιτυχείς στην επιλογή του σωστής τάξης μοντέλου και προσδιόρισαν με ακρίβεια τις παραμέτρους του μοντέλου, σε ένα αρκετά μικρό αριθμό από χρονικά βήματα.
Παράδειγμα 1: Το σχήμα 4 απεικονίζει τις εκ των υστέρων πιθανότητες που σχετίζονται με κάθε τιμή του τ, ενώ το δεύτερο τμήμα απεικονίζει την εξέλιξη των υπολογισμών των παραμέτρων. Αυτά τα αποτελέσματα παράγονται με χρήση του ΜΕΚΑ. Η χρήση του EBP, σαν αλγορίθμου εκπαίδευσης, δίνει παρόμοια αποτελέσματα, αλλά είναι λιγότερο ακριβής στον υπολογισμό των παραμέτρων. Η διαδικασία παραγωγής των δεδομένων είναι: y(n) = 1.8y(n-1) - 0.97y(n-2) + δ(n). Πέντε υποθετικά μοντέλα χρησιμοποιήθηκαν, με τάξη από 1 μέχρι 5. Το σύστημα ταιριάζει στο μοντέλο με τάξη 2, καθώς η αντίστοιχη πιθανότητα p(2/n) ®1, μετά από 30 επαναλήψεις.
ΣΧΗΜΑ 4. Η εξέλιξη των εκ των υστέρων πιθανοτήτων και των υπολογισμών των παραμέτρων.
Παράδειγμα 2: Η διαδικασία παραγωγής δεδομένων είναι η ίδια όπως στο παράδειγμα 1. Σ’ αυτή την περίπτωση το μοντέλο με την πραγματική τάξη (2η τάξη) δεν συμπεριλαμβάνεται ανάμεσα στα πιθανά μοντέλα που χρησιμοποιούνται για την υλοποίηση του ALF. Το πλησιέστερο μοντέλο ( της 3ης τάξης) επιλέγεται, με την έννοια της ελαχιστοποίησης του κριτηρίου πληροφορίας του Kullback, αποδεικνύοντας ότι η μέθοδος είναι εύρωστη. Ο αλγόριθμος εκπαίδευσης είναι ο EBP. Η χρήση του ΜΕΚΑ δίνει παρόμοια αποτελέσματα.
ΣΧΗΜΑ 5. Η εξέλιξη των εκ των υστέρων πιθανοτήτων για τα 3 υποψήφια μοντέλα.
Παράδειγμα 3: Σ’ αυτή την περίπτωση η διαδικασία παραγωγής δεδομένων αλλάζει on-line στο βήμα 90, όπως δείχνεται από τις ακόλουθες σχέσεις:
y(n) = 1.8y(n-1) - 0.97y(n-2) + δ(n), n<90
y(n)=2.05y(n-1)-2.5y(n-2) +1.94y(n-3)-0.76y(n-4)+ δ(n) n>90
Το σύστημα αντιλαμβάνεται αυτόματα την αλλαγή της τάξης και προσαρμόζεται στο μοντέλο σωστής τάξης. Το σχήμα 6 απεικονίζει την εξέλιξη των εκ των υστέρων πιθανοτήτων. Η χρήση του ΜΕΚΑ σαν αλγορίθμου εκπαίδευσης δίνει παρόμοια αποτελέσματα.
ΣΧΗΜΑ 6. Η εξέλιξη των εκ των υστέρων πιθανοτήτων, με χρήση του EBP αλγορίθμου.