Έμβλημα Πολυτεχνείου Κρήτης
Το Πολυτεχνείο Κρήτης στο Facebook  Το Πολυτεχνείο Κρήτης στο Instagram  Το Πολυτεχνείο Κρήτης στο Twitter  Το Πολυτεχνείο Κρήτης στο YouTube   Το Πολυτεχνείο Κρήτης στο Linkedin

Νέα / Ανακοινώσεις / Συζητήσεις

Ανακοίνωση Παρουσίασης Διπλωματικής Εργασίας Ορφανουδάκη Εμμανουήλ Τμήματος ΗΜΜΥ

  • Συντάχθηκε 01-12-2011 14:55 από Eleni Stamataki Πληροφορίες σύνταξης

    Email συντάκτη: estamataki<στο>tuc.gr

    Ενημερώθηκε: -

    Ιδιότητα: σύνταξη/αποχώρηση υπάλληλος.
    Τμήμα Ηλεκτρονικών Μηχανικών & Μηχανικών Υπολογιστών

    ΠΑΡΟΥΣΙΑΣΗ ΔΙΠΛΩΜΑΤΙΚΗΣ ΕΡΓΑΣΙΑΣ

    ΕΜΜΑΝΟΥΗΛ ΟΡΦΑΝΟΥΔΑΚΗΣ

    με θέμα

    “Αξιόπιστη Αναγνώριση Αντικειμένων στο Περιβάλλον του RoboCup”
    “Reliable Object Recognition for the RoboCup Domain”

    Παρασκευή 2 Δεκεμβρίου 2011, 18.00 μ.μ
    Αίθουσα 145.Π58, Κτίριο Επιστημών, Πολυτεχνειούπολη

    Εξεταστική Επιτροπή

    Επ. Καθ. Μιχαήλ. Γ. Λαγουδάκης (επιβλέπων)
    Καθ. Μιχάλης Ζερβάκης
    Καθ. Μίνως Γαροφαλάκης


    Περίληψη

    Το RoboCup είναι ένα διεθνές πρωτάθλημα ρομποτικού ποδοσφαίρου που στοχεύει στην προώθηση της τεχνολογίας στην αυτόνομη ρομποτική και την τεχνητή νοημοσύνη. Η οπτική αναγνώριση αντικειμένων σε πραγματικό χρόνο είναι ένα βασικό πρόβλημα στη ρομποτική και γίνεται ιδιαίτερα δύσκολο στα πλαίσια του RoboCup, λόγω της αστάθειας του περιβάλλοντος, της περιορισμένης διαθεσιμότητας πόρων και της ανάγκης για αξιοπιστία και αποτελεσματικότητα. Αυτή η διπλωματική εργασία περιγράφει το KVision, μια μέθοδο επεξεργασίας εικόνας για την οπτική αναγνώριση αντικειμένων από αρθρωτά κινητά ρομπότ με κινούμενη κάμερα, όπως ανθρωποειδή ρομπότ, δίνοντας έμφαση σε θέματα αξιοπιστίας και αποδοτικότητας. Η προτεινόμενη αλληλουχία επεξεργασίας χρησιμοποιεί πληροφορίες πραγματικού χρόνου από τους αισθητήρες των αρθρώσεων μαζί με την κινηματική αλυσίδα του ρομπότ για να καθοριστεί η ακριβής θέση της κάμερας στο 3-διάστατο χώρο και στη συνέχεια ο ορίζοντας θέασης και το πλέγμα δειγματοληψίας, ώστε η σάρωση να προβάλλεται προσεγγιστικά ομοιόμορφα πάνω στο έδαφος (γήπεδο) και όχι στο πλαίσιο της εικόνας. Ιδιαίτερη έμφαση δίνεται στον ακριβή συγχρονισμό των εικόνων με τις τιμές των αρθρώσεων του ρομπότ κάνοντας χρήση χρονισμένων μηνυμάτων δεδομένων. Η επόμενη φάση εφαρμόζει μια μέθοδο αναγνώρισης χρώματος, η οποία είναι ανεκτική στο θόρυβο και αυτόματα προσαρμόσιμη, στα εικονοστοιχεία του πλέγματος δειγματοληψίας για τον εντοπισμό περιοχών ενδιαφέροντος. Στην τελευταία φάση, μια διαδικασία λεπτομερούς ανάλυσης των προσδιορισμένων περιοχών ενδιαφέροντος επιδιώκει να εντοπίσει υποψήφιες ταυτοποιήσεις για το αντίστοιχο αντικείμενο-στόχο. Αυτές οι ταυτοποιήσεις αξιολογούνται και φιλτράρονται μέσω ευρετικών κανόνων, ώστε να εξαχθεί η καλύτερη ταυτοποίηση (αν υπάρχει) ως προς το χρώμα, το σχήμα και το μέγεθος για κάποιο αντικείμενο-στόχο. Στη συνέχεια το αντίστοιχο αντικείμενο καταχωρείται ως αντιληπτό, μαζί με μια εκτίμηση της τρέχουσας απόστασης και κατεύθυνσης όπου βρίσκεται, καθώς και τις κατάλληλες γωνίες του κεφαλιού για την εστίαση και παρακολούθησή του. Η προτεινόμενη μέθοδος έχει υλοποιηθεί στο ανθρωποειδές ρομπότ Aldebaran Nao για την οπτική αναγνώριση της μπάλας, των δοκαριών των τερμάτων, και εμποδίων στο Πρωτάθλημα Προκαθορισμένης Πλατφόρμας (Standard Platform League) του διαγωνισμού RoboCup. Το προτεινόμενο σύστημα μηχανικής όρασης έχει αξιοποιηθεί από την ομάδα RoboCup του Πολυτεχνείου Κρήτης "Κουρήτες" σε διάφορους διαγωνισμούς RoboCup, με αξιοσημείωτα αποτελέσματα όσον αφορά την αξιοπιστία και την αποδοτικότητα.



    Abstract

    RoboCup is an international robotic soccer competition aiming at advancing the state-of-the-art in autonomous robotics and artificial intelligence. Real-time visual object recognition is a key problem in robotics and becomes particularly challenging in RoboCup due to the volatility of the environment, the scarcity of resources, and the needs for reliability and efficiency. This thesis describes KVision, a light-weight image processing method for visual object recognition on articulated mobile robots with a head-mounted camera, such as humanoid robots, focusing on reliability and efficiency. The proposed vision pipeline uses real-time sensory information from the joints along with the robot's kinematic chain to determine the exact camera position in the 3-dimensional space and subsequently the view horizon and the sampling grid, so that scanning is approximately uniformly projected over the ground (field), not over the image matrix. Special attention is paid on the precise synchronization of images with robot joint values using time-stamped data messages. The next phase employs a noise-tolerant, auto-calibrated color recognition scheme on the pixels of the sampling grid to identify regions of interest. In the last phase, detailed analysis of the identified regions of interests seeks potential matches for the corresponding target object. These matches are evaluated and filtered by several heuristics, so that the best match (if any) in terms of color, shape, and size for a target object is finally extracted. Then, the corresponding object is returned as perceived, along with an estimate of its current distance and bearing as well as appropriate head joint angles for fixating and tracking it. The proposed method has been implemented on the Aldebaran Nao humanoid robots for visual recognition of the ball, the goal posts, and obstacles in the Standard Platform League of the RoboCup competition. The proposed machine vision system has been deployed by the Technical University of Crete RoboCup team "Kouretes" in various RoboCup competitions with remarkable results in terms of reliability and efficiency.

© Πολυτεχνείο Κρήτης 2012