Προκαταλήψεις στα συστήματα Τεχνητής Νοημοσύνης – Alexander Fefegha

Τα συστήματα τεχνητής νοημοσύνης είναι όσο καλά όσο τα δεδομένα που εμείς εισάγουμε σε αυτά. Τα «κακά» δεδομένα μπορεί να περιέχουν λανθάνουσες προκαταλήψεις φύλου, φυλής ή άλλου τύπου. Πολλά συστήματα τεχνητής νοημοσύνης θα συνεχίσουν να εκπαιδεύονται χρησιμοποιώντας κακά δεδομένα, οπότε πρόκειται για ένα τρέχον πρόβλημα. Μια σημαντική αρχή, για τους ανθρώπους αλλά και για τις μηχανές, είναι να προσδιοριστεί πώς θα μπορούσαμε να λάβουμε μέτρα για να περιορίσουμε τον αντίκτυπο της προκατάληψης. Η προκατάληψη στα συστήματα τεχνητής νοημοσύνης εντοπίζεται κυρίως στα δεδομένα ή στο αλγοριθμικό μοντέλο. Καθώς εργαζόμαστε για να αναπτύξουμε συστήματα τεχνητής νοημοσύνης, είναι κρίσιμο αναπτύξουμε και να εκπαιδεύσουμε τα συστήματα αυτά με δεδομένα που δεν εμπεριέχουν προκαταλήψεις, και να αναπτύξουμε αλγορίθμους που μπορούν να εξηγηθούν εύκολα. (Γλώσσα εκδήλωσης : Αγγλικά)

 

Συμμετέχοντες:
Alexander Fefegha

Ο Alexander Fefegha είναι συνιδρυτής και επικεφαλής παραγωγής στο Comuzi, ένα στούντιο σχεδιασμού και καινοτομίας που ασχολείται με τις κοινωνικές προεκτάσεις των αναδυόμενων τεχνολογιών. Μερικοί από τους πελάτες της Comuzi είναι η Nike, η ASOS, η Uber, το BBC, το Πανεπιστήμιο Τεχνών του Λονδίνου, το Ustwo, το Δασικό Συμβούλιο Waltham και το NHS. O Alexander είναι διεθνώς αναγνωρισμένος για την έρευνά του πάνω στις ηθικές προεκτάσεις της τεχνητής νοημοσύνης, την αλγοριθμική προκατάληψη σε σχέση με τη φυλή και το φύλο και τη διερεύνηση των μελλοντικών τεχνολογικών διεπαφών με τις οποίες θα αλληλεπιδρούμε. Είναι κάτοχος μεταπτυχιακού στην Καινοτομία από το Central St. Martins.
Με την υποστήριξη του British Council