2024世界人工智能大会暨人工智能全球治理高级别会议(简称“WAIC 2024”)将于7月在上海世博中心、世博展览馆举行。论坛时间7月4日-6日,展览时间7月4日-7日。为了进一步探索大模型的潜力与挑战,2024世界人工智能大会“未知边界”大模型探索未来——大模型青年说论坛将于2024年7月6日下午14:00在上海世博中心召开。
本论坛由AI TIME主办及承办,东浩兰生(集团)有限公司协办。该论坛汇聚了来自全球的优秀青年学者,将围绕大语言模型、多模态大模型、大模型应用框架、大模型创新应用、大模型对齐评测和微调五大方向展开,共同探讨大模型技术的最新进展与未来发展方向。
随着人工智能技术的快速发展,大模型已经成为引领科技进步和产业变革的重要驱动力。大模型不仅在自然语言处理、图像生成等领域展现出强大的能力,还在医疗、金融、制造等行业中发挥着越来越重要的作用。然而,大模型的潜力尚未完全发掘,其在多模态集成、应用框架设计、创新应用及对齐评测等方面仍存在诸多未知领域亟待探索。
论坛亮点
1. 多元国际化视角,促进全球合作交流:
论坛邀请来自世界各地的大模型领域青年学者,涵盖多个国家和地区的顶尖研究机构和高校。多元的国际化视角将促进全球合作交流,推动青年学者们共同思辨,共话前沿,共探未来。
2. 学术理论与实践结合,推动技术落地应用:
论坛将展示前沿的学术研究成果,同时注重将理论研究与实际应用相结合。通过案例分析和实际项目展示,参会者能够深入了解大模型技术在不同领域的实际应用情况,推动这些技术在各行业的落地和应用。
3. 展示创新性研究成果,拓展技术发展前沿:
论坛将集中展示大语言模型、多模态大模型、大模型应用框架等方面的最新创新成果。通过这些前沿技术的展示,论坛为参会者提供了最新的研究进展和技术动向,拓展了技术发展的前沿。
4. 青年学者深入交流,激发科研新思路:
通过主题报告、圆桌讨论和互动环节,青年学者们可以分享各自的研究成果和经验,探讨潜在的合作机会。这种深入的交流与合作,不仅能够激发科研新思路,还能促进学术界的协同创新,共同推动大模型技术的发展。
论坛内容
14:00-14:10
主持人开场
14:10-14:30
桂韬
大模型智能体类人对齐
14:30-14:50
刘乾
从Sailor看多语言大模型训练的机遇与挑战
14:50-15:10
黄超
探索大语言模型(LLMs)在图学习中的力量
15:10-15:30
于济凡
从运用智能到理解智能:大模型时代的智能教育环境与认知评测
15:30-15:50
谷雨
多模态语言智能体:大模型驱动的新路径
15:50-16:10
洪文逸
从CogVLM到CogAgent:一个用于GUI智能体的视觉语言模型
16:10-17:30
panel
Agent的无限可能:探索通用人工智能的未来
16:10-16:30
吴海旭
偏微分方程求解大模型
嘉宾介绍
桂韬
复旦大学青年副研究员
复旦大学自然语言处理实验室副研究员、硕士生导师。研究领域为预训练模型、信息抽取和鲁棒模型。在高水平国际学术期刊和会议上发表了40余篇论文,主持国家自然科学基金、计算机学会、人工智能学会多个基金项目。曾获钱伟长中文信息处理科学技术奖一等奖(2/5)、中国中文信息学会优秀博士论文奖、COLING2018最佳论文提名奖、NLPCC2019亮点论文奖,入选第七届“中国科协青年人才托举工程”、上海市启明星计划。
黄超
香港大学计算机学院助理教授、博士生导师
他近期的研究兴趣包括图学习、推荐系统和大语言模型。在国际会议和期刊上发表了多篇论文,包括KDD、SIGIR、WWW、WSDM、ICLR、NeurIPS、ICML、CIKM等。他的研究成果在WWW'19、WSDM'2022和WWW'2023等会议上被评为最佳论文候选。带领的科研课题组的学术成果被评选为ACM SIGIR'2022和ACM WWW'2023最有影响力论文。黄超老师被斯坦福大学评选为2022年全球Top 2%的优异学者。
于济凡
清华大学教育研究院助理研究员
专注于自然语言处理和基础模型的研究。他当前的研究重点是利用前沿的自然语言处理技术构建实用的AI系统。这些研究旨在创建通用的自然语言接口,期望未来能够通过自然语言与几乎所有平台或应用进行交互。此外,他还广泛关注神经符号人工智能和受认知架构启发的人工智能模型。最近,他主要专注于开发由大型语言模型(LLMs)驱动的更好的语言智能体(language agents)。他的研究成果已在包括ACL、EMNLP、NAACL、COLING、NeurIPS和WWW在内的著名会议上发表。值得一提的是,他作为第一作者在ACL和COLING上均获得了杰出论文奖。
刘乾
新加坡Sea AI Lab担任研究科学家
主要的研究方向是代码生成和自然语言推理。他曾是北京航空航天大学和微软亚洲研究院的联合培养博士生,并在人工智能顶级会议如 ICLR、NeurIPS、ACL上发表 20余篇论文,代表作包括TAPEX、LoraHub以及StarCoder/StarCoder2等。他曾获得过 KAUST AI Rising Star 2024 (全球30人),百度奖学金2020 提名奖(全球20人)和北京市优秀博士论文提名奖等。同时,他也是国内知名自然语言处理社区MLNLP的联合创始人之一。
谷雨
俄亥俄州立大学博士生
专注于自然语言处理和基础模型的研究。他当前的研究重点是利用前沿的自然语言处理技术构建实用的AI系统。这些研究旨在创建通用的自然语言接口,期望未来能够通过自然语言与几乎所有平台或应用进行交互。此外,他还广泛关注神经符号人工智能和受认知架构启发的人工智能模型。最近,他主要专注于开发由大型语言模型(LLMs)驱动的更好的语言智能体(language agents)。他的研究成果已在包括ACL、EMNLP、NAACL、COLING、NeurIPS和WWW在内的著名会议上发表。值得一提的是,他作为第一作者在ACL和COLING上均获得了杰出论文奖。
洪文逸
清华大学博士生
师从唐杰教授。研究方向为多模态预训练,曾在ICLR、CVPR、NeurIPS等会议上发表多篇论文,主要工作包括视觉语言模型CogAgent、CogVLM、文到图生成模型CogView、文到视频生成模型CogVideo等。
吴海旭
清华大学博士生
师从龙明盛副教授,研究方向为科学机器学习,在Nature Machine Intelligence,ICML,NeurIPS等期刊/会议上发表多篇论文,入选Nature子刊封面文章,NeurIPS 2021最具影响力论文。
本文采摘于网络,不代表本站立场,如有侵权,请联系删稿。转载联系作者并注明出处:https://china-datacenter.com/show-635.html