Έμβλημα Πολυτεχνείου Κρήτης
Το Πολυτεχνείο Κρήτης στο Facebook  Το Πολυτεχνείο Κρήτης στο Instagram  Το Πολυτεχνείο Κρήτης στο Twitter  Το Πολυτεχνείο Κρήτης στο YouTube   Το Πολυτεχνείο Κρήτης στο Linkedin

Νέα / Ανακοινώσεις / Συζητήσεις

Παρουσίαση Διπλωματικής Εργασίας κ. Γεωργίου Φραγγιά - Σχολή ΗΜΜΥ

  • Συντάχθηκε 11-12-2023 14:42 Πληροφορίες σύνταξης

    Ενημερώθηκε: -

    Τόπος:
    Σύνδεσμος τηλεδιάσκεψης
    Έναρξη: 14/12/2023 09:00
    Λήξη: 14/12/2023 10:00

    ΠΟΛΥΤΕΧΝΕΙΟ ΚΡΗΤΗΣ
    Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών
    Πρόγραμμα Προπτυχιακών Σπουδών

    ΠΑΡΟΥΣΙΑΣΗ ΔΙΠΛΩΜΑΤΙΚΗΣ ΕΡΓΑΣΙΑΣ

    Γεωργίου Φραγγιά

    με θέμα

    Ομοσπονδοποιημένη Μάθηση στο TensorFlow Χρησιμοποιώντας τη Γεωμετρική Μέθοδο
    Federated Learning at TensorFlow Using the Geometric Approach

    Εξεταστική Επιτροπή

    Καθηγητής Αντώνιος Δεληγιαννάκης (επιβλέπων)
    Επίκουρος Καθηγητής Νικόλαος Γιατράκος
    Αναπληρωτής Καθηγητής Βασίλειος Σαμολαδάς

    Περίληψη

    Η ραγδαία αύξηση της παραγωγής δεδομένων και της χρήσης του διαδικτύου κατά τα τελευταία έτη έχει δημιουργήσει πρωτοφανή ζήτηση για αποδοτική συλλογή, διαχείριση και ανάλυση Μεγάλων Δεδομένων. Οι συνεχώς αυξανόμενες ανησυχίες της κοινής γνώμης για το προσωπικό απόρρητο και η θέσπιση κανονισμών για την διασφάλισή του, παρωθούν την ανάγκη για ανάπτυξη αποκεντρωμένων, κατανεμημένων και επεκτάσιμων μηχανισμών Μηχανικής Μάθησης, οι οποίοι μπορούν να εξασφαλίσουν τόσο την ασφάλεια, όσο και την υψηλής ακρίβειας συλλογική εκπαίδευση. Το επιστημονικό πεδίο της Ομοσπονδοποιημένης Μάθησης εξειδικεύεται ακριβώς σε αυτό: να εκπαιδεύει ένα καθολικό μοντέλο μηχανικής μάθησης, χωρίς την μεταφορά ευαίσθητων τοπικά παραχθέντων δεδομένων. Για τους σκοπούς της παρούσας διπλωματικής εργασίας, δημιουργήθηκε μία αναπτύξιμη επέκταση στην βιβλιοθήκη Κατανεμημένης Μηχανικής Μάθησης KungFu, προκειμένου να διευκολυνθεί η εκτέλεση εργασιών Ομοσπονδοποιημένης Μάθησης, σε αποκεντρωμένους υπολογιστικούς κόμβους. Οι αλγόριθμοι που εφαρμόστηκαν είναι οι τρεις μέθοδοι Functional Dynamic Averaging, εμπνευσμένες από την Γεωμετρική Μέθοδο. Αυτοί οι αλγόριθμοι έχουν την δυνατότητα να επιτηρούν προσεγγιστικά μία καθολική συνάρτηση κατωφλίου, χρησιμοποιώντας αποκλειστικά τοπικά δεδομένα και, επακολούθως, να καθορίζουν την ανάγκη για συγχρονισμό και συνάθροιση των μοντέλων. Η υλοποίηση αυτή δοκιμάστηκε με την εκτέλεση εξαντλητικών πειραμάτων σε υποδομή πολλαπλών GPU, και συγκρίθηκε με έναν συνηθισμένο κατανεμημένο αλγόριθμο. Τα αποτελέσματα επιδεικνύουν σημαντική μείωση στη διάρκεια της εκπαίδευσης, λόγω μείωσης των επιβαρύνσεων επικοινωνίας, χωρίς επιπτώσεις στην ακρίβεια, ειδικότερα σε μη ιδανικές δικτυακές τοπολογίες.

    Abstract 

    The rapid growth of data generation and internet usage in recent years has created an unprecedented demand for efficient Big Data collection, processing and analysis. The ever-growing privacy concerns of the public opinion and the enactment of regulations on this subject, induce the need for the development of decentralized, distributed and scalable Machine Learning mechanisms, that can assure both personal data security and high accuracy collective training. The scientific field of Federated Learning is dedicated to achieving exactly that; train a global machine learning model without communicating sensitive locally generated data. For the purpose of the current thesis, we have developed a deployable extension to the Distributed Machine Learning library KungFu, to effortlessly execute Federated Learning training jobs on decentralized compute nodes. The implemented algorithms are the three Functional Dynamic Averaging methods, inspired by the Geometric Approach. These algorithms have the ability to approximately monitor a global threshold function, using solely local data and, subsequently, dynamically determine the need for synchronization and model aggregation. We have put our implementation to the test by executing exhaustive experiments on multi-node GPU infrastructure, and compared it to a classic distributed algorithm. The results demonstrate a significant training time reduction, due to reduced communication overhead, without having repercussions on accuracy, especially for non-ideal network topologies.



© Πολυτεχνείο Κρήτης 2012