来源:软件工程学院

5月16日:神经网络是否可以被严谨地解释清楚?可解释性技术在大模型上的如何应用落地?

来源:华东师范大学软件工程学院发布时间:2024-05-15浏览次数:10

题目:神经网络是否可以被严谨地解释清楚?可解释性技术在大模型上的如何应用落地?

报告时间:2024年5月16日(星期四)13:30

报告地点:理科大楼B1002

邀请人:张敏


摘要:


然近年来神经网络的可解释性研究得到了广泛的关注,但是大部分可解释性研究依然停留在工程技术层面,大量根本性问题尚未得到解决,尚缺少相对严谨的理论体系从根本机理层面统一解释神经网络的知识表达和其表征性能。比如,证明神经网络内在决策逻辑是否可以被严谨地解释为符号化的概念,如何量化神经网络的知识表征,什么是决定神经网络泛化性和鲁棒性的第一性原理,等等。本次报告将介绍如何在博弈交互理论体系下严谨地量化神经网络所建模的概念表征,如何证明解释的严谨性,如何通过概念表征层面的解释提升大模型的训练效率节省成本,如何对大模型安全性进行量化评估。


报告人简介:


张拳,上海交通大学电院计算机科学与工程系长聘教轨副教授,博士生导师,入选国家级海外高层次人才引进计划,获ACMChina新星奖。他于2014年获得日本东京大学博士学位,于2014-2018年在加州大学洛杉矶分校(UCLA)从事博士后研究。张拳石在神经网络可解释性方向取得了多项具有国际影响力的创新性成果。张拳石承担了TMLRAction EditorCCF-A类会议IJCAI 2020IJCAI 2021的可解释性方向的Tutorial,并先后担任了AAAI 2019, CVPR 2019, ICML 2021大会可解释性方向的分论坛主席。