Έμβλημα Πολυτεχνείου Κρήτης
Το Πολυτεχνείο Κρήτης στο Facebook  Το Πολυτεχνείο Κρήτης στο Instagram  Το Πολυτεχνείο Κρήτης στο Twitter  Το Πολυτεχνείο Κρήτης στο YouTube   Το Πολυτεχνείο Κρήτης στο Linkedin

Νέα / Ανακοινώσεις / Συζητήσεις

Παρουσίαση Διπλωματικής Εργασίας κ. Χρήστου Πολύζου - Σχολή ΗΜΜΥ

  • Συντάχθηκε 01-09-2023 11:00 Πληροφορίες σύνταξης

    Ενημερώθηκε: 05-09-2023 11:25

    Τόπος: 

    Σύνδεσμος τηλεδιάσκεψης: https://tuc-gr.zoom.us/j/92721985731?pwd=Mjh5MmVwc3FlSVhrTXRnNEtRT3ZMZz09
    Έναρξη: 05/09/2023 11:00
    Λήξη: 05/09/2023 12:00

     

     ΠΟΛΥΤΕΧΝΕΙΟ ΚΡΗΤΗΣ
    Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών
    Πρόγραμμα Προπτυχιακών Σπουδών

    ΠΑΡΟΥΣΙΑΣΗ ΔΙΠΛΩΜΑΤΙΚΗΣ ΕΡΓΑΣΙΑΣ

    Χρήστου Πολύζου

    με θέμα

    Υπερπαραμετροποιημένα Νευρωνικά Δίκτυα Βαθείας Μάθησης: Ιδιότητες Σύγκλισης και Γενίκευσης
    Overparametrized Deep Neural Networks: Convergence and Generalization Properties

    Εξεταστική Επιτροπή

    Καθηγητής Αθανάσιος Λιάβας (επιβλέπων)
    Καθηγητής Γεώργιος Καρυστινός
    Καθηγητής Μιχαήλ Ζερβάκης

    Abstract

    In this thesis, we consider deep neural networks for Machine Learning. We depict neural networks as weighted directed graphs and we represent them as parametric functions that receive an input and compute an output, or prediction, given some fixed parameters, the weights and the biases. The quintessence of a neural network is the feed-forward model, in which the underlying graph does not contain cycles (acyclic graph) and the parametric function is defined in a compositional, or hierarchical, way.

    Throughout our presentation, we focus on a supervised learning setting, where our neural network model, or learner, has access to a training set that contains examples of how pairs of input-output data are related. In other words, supervised learning amounts to learning from examples. Given a training set, depending whether the outputs have real or categorical values, we consider regression and logistic regression. For each setting, we provide the basic statistical framework and construct a loss function known as the empirical risk. We train our neural network by minimizing the empirical risk w.r.t. its parameters by using gradient-based optimization methods. The gradient of the loss function is computed via the back-propagation algorithm.
    We showcase the convergence and generalization properties of different algorithms (deep neural network models and optimization methods) using real-world data.

     

     

     


© Πολυτεχνείο Κρήτης 2012