“元宇宙+教育” 会碰撞出怎样的火花?******
◎本报记者 张盖伦
近日,第五届世界教育前沿论坛举行。在该论坛“元宇宙与教育”环节的尾声,北京大学教育学院原副院长、中国教育技术协会教育游戏专委会理事长尚俊杰向与会嘉宾提了一个问题:元宇宙常态化应用到教育领域还需多久?这也是近一年来常被探讨的话题。
我国教育信息化经过近十年的大力推进,已经实现了跨越式发展。教育部提供的数据显示,全国各级各类学校全部接入互联网,所有学校出口带宽达到100兆以上,接入无线网的学校数超过21万所,99.5%的中小学拥有多媒体教室。
那么,下一个十年,像元宇宙这样的新技术又将如何影响教育?
元宇宙是教育信息化的高级阶段
尚俊杰指出,元宇宙的本质就是与现实世界交互融通的数字化交互环境。狭义上,它是指基于VR/AR、人工智能技术实现的让人身临其境的虚拟世界;广义上,它可涵盖数字世界的所有概念,从当前的互联网到未来虚实融合的数字化世界都是元宇宙。
信息技术对教育具有革命性影响,新的技术,总会给教育变革带来新的可能。尚俊杰总结,元宇宙可以为学生带来更具临场感、体验感的学习环境,还可以创造混合现实的学习环境。
不过,元宇宙不是教育的万能药。尚俊杰坦言,教育是个“慢领域”,不要指望有某个技术能突然地变革它。可以把元宇宙看作教育信息化的高级阶段。长期来看,元宇宙属于颠覆性技术,但短期来看,它的发展还有许多不确定因素,要重视元宇宙研究,为业界实践提供理论指引。
尚俊杰表示,要把教育元宇宙融入教育信息化的长远规划和顶层设计中,明确发展目标和具体方案,为教育元宇宙的健康有序和可持续发展提供政策指导。
他还指出,应以教育新基建推动教育元宇宙发展,将教育元宇宙纳入教育数字化战略行动方案,加快推进教育专网建设,推动5G、VR/AR、人工智能、区块链等技术在教育领域广泛落地应用,建构智能学习交互等教育新场景。“只有推动教育基建,我们的元宇宙才可能真正‘搭’起来。否则,如果网络很卡顿,学生就不会有兴趣。”尚俊杰说。
他表示,还需加强教育元宇宙相关技术标准的制定,首先要明确元宇宙的技术架构和规则,在此基础上,根据教育领域的实际需求,面向学生全面健康成长,结合各学科课程内容、课程标准和相关研究,发现教育的一般规律和特殊规律,并进一步总结迭代,形成适用于教育领域的元宇宙技术标准和伦理规则。
各层级教育元宇宙发展各有侧重
元宇宙在教育领域的应用,最终仍要落脚到学习上。
华东师范大学信息管理系教授许鑫认为,元宇宙在高等教育、基础教育和职业教育领域落地的典型场景和研发的重点方向会有不同侧重。
在高等教育领域,侧重于元宇宙在产教融合方面的落地和社交属性的体现;在职业教育领域,侧重于借助自动化内容生成工具,为数字虚拟场景快速搭建、VR教学资源自动生成、数字人教师实现等赋能;在基础教育领域,则聚焦科学教育,开展学生VR环境下学习能力、抗压能力测评的系列研究。
值得一提的是,许鑫强调,元宇宙在基础教育领域的应用还需慎重。此前,他们考虑进行课件的3D转换,比如把课堂上立体几何的内容通过3D的方式直接呈现给同学们。但是研究数学的老师给出了不同的观点——他们担心这样会限制学生的空间想象力。“当给学生提供沉浸式学习环境时,他们注意力究竟是比以前更集中,还是更分散?这都需要进一步研究。”许鑫说。
“教育元宇宙的发展要能够把握教育的本质,不是为了用技术而用技术,而是真正让技术促进学生的成长和进步。”许鑫强调。
人工智能如何做到可信、可用?专家热议:把责任归结到个人******
中新网北京12月11日电 人工智能治理的理想状态,是人工智能技术能做到可知、可信、可控、可用。而在现实中,人工智能技术手段虽然非常强大,但是离完美、完善仍有相当的距离。从技术角度和技术应用角度,人工智能的发展如何做到扬长避短?
近日,在2022人工智能合作与治理国际论坛上,专家围绕该话题进行了讨论。
中国工程院院士、鹏城实验室主任高文认为,现阶段很多技术还处于发展的过程中,如果过早地说这个不能用、那个不能用,可能会抑制技术本身的发展。但反过来,如果什么都不管,也不行。
“因此,现在更多还是从道德层面多进行引导。同时,做技术的人,也要尽量把一些可能的风险、抑制工具,即约束风险的工具,尽快想明白。自己也做,同时号召大家做,两者结合。”他说。
清华大学智能产业研究院国强教授、首席研究员聂再清认为,我们要保证能够创新,但同时不能让创新对我们的生活产生破坏性的影响,最好的办法就是把责任归结到个人。
“技术的背后是有人在控制的。这个人应该时刻保证工具或创新在危险可控的范围内。同时,社会也要进行集体的监督,发布某个产品或技术,要能够召回、撤销。在创新和监管之间,当然是需要平衡的,但归根结底,还是要把责任落实到个人身上。”他指出。
瑞莱智慧RealAI公司联合创始人、首席执行官田天补充道,在技术可解释性方面,需要去进行技术发展与相应应用场景的深度结合。大家需要一个更加可解释的AI模型,或者更加可解释的AI应用。
“但我们真正想落地的时候,会发现每个人想要的可解释性完全不一样。比如:模型层面的可解释,可能从研发人员角度觉得已经很好了,但是从用户的角度是看不懂的,这需要一些案例级的解释,甚至通过替代模型等方式进行解释。因此,在不同领域,需要不同的可解释能力,以及不同的可解释级别,这样才能让技术在应用场景发挥最好的作用。”他说。
将伦理准则嵌入到人工智能产品与系统研发设计中,现在是不是时候?
高文认为,人工智能软件、系统应该有召回的功能。如果社会或伦理委员会发现这样做不对,可能带来危害,要么召回,要么撤销。
高文说,应用的开发者,系统提交或者最终用户让他去调整的时候,他应该有责任。如果开发者发现已经踩线了,应该给他一个保护机制,他可以拒绝后面的支持和维护,甚至可以起诉。“不能只说哪一方不行,光说是开发者的责任,他可能觉得冤枉,因为他只提供工具,但有时候是有责任的,只是说责任怎么界定。”
“在人工智能的发展过程中,一方面要建立一些红线。”田天建议,比如,对于人工智能的直接滥用,造假、个人隐私泄露,甚至关联到国家安全、生命安全的,这些领域一定要建立相关红线,相应的惩罚规定一定要非常清晰,这是保证人工智能不触犯人类利益的基本保障。
“在这个基础上,对于处于模糊地带的,希望能留有更多空间。不光是从限制角度,也可以从鼓励更加重视伦理的角度,促进合规地发展。”田天称。
2022人工智能合作与治理国际论坛由清华大学主办,清华大学人工智能国际治理研究院(I-AIIG)承办,中国新闻网作为战略合作伙伴,联合国开发计划署(UNDP)、联合国教科文组织(UNESCO)等国际组织、国内外学术机构支持。(中新财经)
(文图:赵筱尘 巫邓炎) [责编:天天中] 阅读剩余全文() |