{"id":2095,"date":"2024-04-09T14:50:34","date_gmt":"2024-04-09T12:50:34","guid":{"rendered":"https:\/\/fare.stat.unipd.it\/?p=2095"},"modified":"2026-03-23T10:33:41","modified_gmt":"2026-03-23T09:33:41","slug":"corso-di-formazione-data-ethics-e-fairness-in-machine-learning","status":"publish","type":"post","link":"https:\/\/fare.stat.unipd.it\/?p=2095","title":{"rendered":"Corso di formazione: Data Ethics e Fairness in Machine Learning"},"content":{"rendered":"\t\t<div data-elementor-type=\"wp-post\" data-elementor-id=\"2095\" class=\"elementor elementor-2095\">\n\t\t\t\t<div class=\"elementor-element elementor-element-59759802 e-flex e-con-boxed e-con e-parent\" data-id=\"59759802\" data-element_type=\"container\" data-e-type=\"container\">\n\t\t\t\t\t<div class=\"e-con-inner\">\n\t\t\t\t<div class=\"elementor-element elementor-element-7056e8ab elementor-widget elementor-widget-text-editor\" data-id=\"7056e8ab\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>Se da un lato l&#8217;automazione dei processi decisionali promette di eliminare i pregiudizi umani e di garantire obiettivit\u00e0, dall&#8217;altro l&#8217;<strong>etica dell&#8217;intelligenza artificiale<\/strong> presenta un paradosso insidioso. Gli algoritmi, infatti, non sono entit\u00e0 separate dalla societ\u00e0 che li crea. Rispecchiano, spesso inconsapevolmente, le distorsioni e i pregiudizi presenti nei dati su cui vengono stimati. Il modulo &#8220;<strong>Fairness e Bias nel Machine Learning<\/strong>&#8221; propone una panoramica su questo tema complesso, fornendo una comprensione sul concetto di distorsione negli algoritmi, delle sue cause e dei suoi effetti, proponendo soluzioni concrete per mitigare questo problema.<\/p>\n<p>\u00a0<\/p>\n<p><strong>Programma del corso<\/strong><\/p>\n<p><!-- \/wp:paragraph --><\/p>\n<p><!-- wp:paragraph --><\/p>\n<p>Il corso si articola in due moduli.\u00a0<\/p>\n<p><span style=\"color: var( --e-global-color-text ); font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); text-align: var(--text-align); font-size: 1rem;\">Nel primo modulo viene fornita un\u2019introduzione ai concetti di <strong>Data Ethics<\/strong> e ai principi della <strong>General Data Protection Regulation (GDPR)<\/strong> nell\u2019ambito dell\u2019analisi dei dati in azienda, evidenziando l\u2019importanza e la rilevanza di questi aspetti per la <strong>Business Analytics<\/strong>. Vengono identificati i principi chiave della GDPR che ogni analista dei dati dovrebbe conoscere, e viene proposto un approccio concreto per incorporare questi principi in ciascuna fase di un processo di analisi dei dati.\u00a0 Si discute infine di come un processo di analisi potrebbe andare oltre \u2018regole codificate\u2019, considerando una pi\u00f9 ampia prospettiva etica nell\u2019utilizzo dei dati, nel loro processamento, nella presentazione e discussione dei risultati.<\/span><\/p>\n<p><!-- \/wp:paragraph --><\/p>\n<p><!-- wp:paragraph --><\/p>\n<p>Nel secondo modulo si esplora il paradosso dell&#8217;<strong>etica nell&#8217;intelligenza artificiale<\/strong>. Un algoritmo pu\u00f2 essere razzista, sessista o discriminatorio? Pu\u00f2 un computer essere davvero imparziale?<\/p>\n<p><!-- \/wp:paragraph --><\/p>\n<p><!-- wp:paragraph --><\/p>\n<p><strong><span style=\"color: var( --e-global-color-text ); font-family: var( --e-global-typography-text-font-family ), Sans-serif; text-align: var(--text-align); font-size: 1rem;\">Iscrizione<\/span><\/strong><\/p>\n<p><span style=\"color: var( --e-global-color-text ); font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); text-align: var(--text-align); font-size: 1rem;\">Se sei interessato a partecipare al corso compila il <\/span><a style=\"font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); text-align: var(--text-align); font-size: 1rem; background-color: #ffffff;\" title=\"\" href=\"https:\/\/docs.google.com\/forms\/d\/e\/1FAIpQLSfn5JzgwelziBqVKEvVIEQEsHtN7ZPJRpQHCJyxSWyxaxV0JQ\/viewform\" target=\"_blank\" rel=\"noopener\">modulo<\/a><span style=\"color: var( --e-global-color-text ); font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); text-align: var(--text-align); font-size: 1rem;\">.\u00a0<\/span><span style=\"color: var( --e-global-color-text ); font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); text-align: var(--text-align); font-size: 1rem;\">Il corso \u00e8 aperto a tutti coloro che sono interessati all\u2019argomento, si attiver\u00e0 al raggiungimento di 5 partecipanti e prevede un costo di 500 euro a partecipante.\u00a0<\/span><span style=\"color: var( --e-global-color-text ); font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); text-align: var(--text-align); font-size: 1rem;\">Per info scrivere a\u00a0<\/span><a style=\"font-family: var( --e-global-typography-text-font-family ), Sans-serif; font-weight: var( --e-global-typography-text-font-weight ); text-align: var(--text-align); font-size: 1rem; background-color: #ffffff;\" href=\"mailto:far@stat.unipd.it\">far@stat.unipd.it<\/a><\/p>\n<p>\u00a0<\/p>\n<p><!-- \/wp:paragraph --><\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t","protected":false},"excerpt":{"rendered":"<p>Se da un lato l&#8217;automazione dei processi decisionali promette di eliminare i pregiudizi umani e di garantire obiettivit\u00e0, dall&#8217;altro l&#8217;etica dell&#8217;intelligenza artificiale presenta un paradosso insidioso. Gli algoritmi, infatti, non sono entit\u00e0 separate dalla societ\u00e0 che li crea. Rispecchiano, spesso inconsapevolmente, le distorsioni e i pregiudizi presenti nei dati su cui vengono stimati. Il modulo &hellip; <\/p>\n<p class=\"link-more\"><a href=\"https:\/\/fare.stat.unipd.it\/?p=2095\" class=\"more-link\">Leggi tutto<span class=\"screen-reader-text\"> &#8220;Corso di formazione: Data Ethics e Fairness in Machine Learning&#8221;<\/span><\/a><\/p>\n","protected":false},"author":2,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-2095","post","type-post","status-publish","format-standard","hentry","category-senza-categoria"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=\/wp\/v2\/posts\/2095","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=2095"}],"version-history":[{"count":16,"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=\/wp\/v2\/posts\/2095\/revisions"}],"predecessor-version":[{"id":2446,"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=\/wp\/v2\/posts\/2095\/revisions\/2446"}],"wp:attachment":[{"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=2095"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=2095"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/fare.stat.unipd.it\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=2095"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}