转载来源 | 得物技术
目 录
一、引言
二、参会内容分享
  1. LLM 赋能声明式前端框架调试的实践与思考
  2. WebNN,Web 端侧推理的未来
  3. 利用 LLM 改善研发过程里答疑体验
三、圆桌会话题分享
  1. 鸿蒙的现状及相关数据
  2. HarmonyOS NEXT 与 AOSP
  3. 鸿蒙生态的原生开发框架 ArkUI
  4. 关于圆桌会话题的总结
四、分享感想
一、引言
QCon 全球软件开发大会是由极客邦科技旗下 InfoQ 中国主办的综合性技术盛会,每年在伦敦、北京、纽约、圣保罗、上海、旧金山召开。自 2007 年 3 月份开始举办以来,已经有超万名有多年从业经验的技术人员参加过 QCon 大会。QCon 内容源于实践并面向社区,演讲嘉宾依据热点话题,面向 5 年以上工作经验的技术团队负责人、架构师、工程总监、开发人员分享技术创新和实践。本次 QCon 全球软件开发者大会上海站为期 2 天,总共有 17 个主题专场,主要包括 GenAI 和通用大模型应用探索、LLM 时代的性能优化、LLM 时代的大前端技术、加速生成式 AI 落地的最佳实践等,几乎所有的专场都离不开 AI 这个热门话题,可以说是一次以 AI 为主题的技术分享盛宴。此次作为参会者听了 LLM 时代的大前端技术的主题分享,对前端领域与 AI 的结合有了一些不一样的认知,拓宽了技术视野,收获很多。本文也主要对这个主题的内容进行分享。
二、参会内容分享
本次大会主要参与了 LLM 时代的大前端技术这个专题下的 4 场分享,与会的分享嘉宾结合具体的应用场景分享了他们在 LLM 时代的大前端技术发展趋势中的机遇和挑战。
1. 实践与思考
by 涂旭辉 华为公共开发部 /Web 前端技术专家
此场分享的内容主要是 LLM 在前端调试领域的场景,结合 record&replay 对声名式框架进行交互式调试。开发者通过调试聊天框与模型互动,大模型对缺陷库进行学习增强程序分析推理能力并基于时间戳给出调试建议,开发者结合经验执行调试给出反馈,可以帮助开发者高效准确定位问题根因,为开发者带来全新开发调试范式。起初我还很好奇,AI 辅助编码也就算了,现在还来个 AI 自动调试,并分析问题根因,协助开发者解决问题。听了嘉宾的分享,增长了不少见识。
1.1  为什么要在前端调试领域使用 AI
分享嘉宾前期做了不少调研,AI 赋能前端的方向主要发力点有:AI 生成页面、 增强 AI 能力调用的 DSL 设计和 AI 辅助开发,唯独在 debug 领域没有很好的实践,如下图所示:
所以分享嘉宾结合了公司的实际应用场景,探索了 AI 在前端 debug 领域的实践。具体实践过程中涉及的主要技术:程序切片和大模型智能定位分析。这里不对技术的具体实现过程展开分享,整体的技术架构如下:
其主要执行流程如下:
  • 前端模块是提供组件状态及源码执行
  • 程序分析模块进行切片记录调试过程状态
  • 大模型模块推理能力增强程序分析
  • 缺陷变异技术构建优质缺陷库
  • 大模型基于时间戳给出调试建议,开发者执行调试给出的反馈
1.2  AI 在调试领域的应用场景
分享嘉宾对传统调试工具和 AI 调试工具做了对比,如下图所示:
可以看到传统的调试工具基于浏览器本身提供的调试能力可以分析问题的原因,AI 调试工具通过录制的视频,结合大模型对程序片段的分析,最终定位到问题的原因,甚至可以定位到具体的代码行数,如下是人机交互的 UI 展示:
1.3  个人的一些总结
在嘉宾分享过程中,我一直在思考,通过这么复杂的技术实现和交互来做 AI 智能调试真的有必要吗,在分享结束之后,我也问了一个问题:在录制阶段的成本其实是很大的,需要实时上报代码片段,操作频繁的话,这个上报的数据就很大,这么大的数据如何存储?大模型智能分析依赖于回放,那么对于一些需要紧急修复的问题,这个过程势必比较长,这么做真的合适吗?嘉宾给的回答是,具体场景具体分析,AI 智能调试有其适用场景,对于短时就能定位的场景不合适,对于长时间很难定位的问题,通过 AI 智能分析还是比较合适的,并且他们也做过数据分析对比,对于长时间难以定位的问题,AI 智能分析的解决效率会高于人工的解决效率。
2.WebNN,Web 端侧推理的未来
by 胡宁馨 & 张敏 英特尔 SA TG Web 平台工程
2.1  什么是 WebNN
WebNN 是 Web Neural Network API 简称,作为一种允许通过浏览器进行神经网络推理硬件加速的方法。由 W3C 发布的公开工作草案以及一直在开发的 Web 神经网络 API。WebNN 在设计时就考虑到了一些用例,比如人检测、人脸识别、超分辨率、图像字幕、情感分析、噪声抑制等。除了通过 CPU 和 GPU 进行推理之外,Web Neural Network API (WebNN) 提供了 Web 应用访问此类专有 AI 加速器 NPU 的途径,以获得卓越性能及更低功耗。作为 JavaScript ML 框架的后端,WebNN 将会在几乎不更改前端代码的前提下,为 Web 开发者及他们的产品带来相较于 Wasm,WebGL 更为优异的性能体验。本次嘉宾分享的是关于 WebNN API 的 W3C 标准进度,对 CNN,Transformer 以及更广泛的生成式 AI (Generative AI) 模型的支持情况和计划,以及在 Chrome,Edge 等浏览器的实现进展。
2.2  WebNN 标准规范进展
WebNN 草案地址:https://www.w3.org/TR/2023/CRD-webnn-20231219/
2.3  WebNN 工作组
2.4  WebNN 的编程模型及在 Chromium 中的实现
WebNN 对于不同的模型提供了不同的 ML 框架,比如 ONNX 模型,可以通过如下方式引入:
import { InferenceSession } from"onnxruntime-web"
引入之后就可以基于此模型去开发一些应用场景的功能了。
2.5  个人的一些总结
WebNN 提供了一种 web 应用访问专有 AI 加速器 NPU 的途径,能够合理的利用硬件资源在 web 端运行大模型,可以获得卓越性能及更低功耗。随着草案的提出以及后续支持的模型越来越多,基于 Chromium 内核的 webview 在不同设备里面的应用场景会越来越广泛。作为前端研发还是需要了解下其后续的进展,拓展更多业务场景的使用视野
3. 利用 LLM 改善研发过程里答疑体验
by 段潇涵 字节跳动研发⼯程师
3.1  切入点:研发答疑机器人
在研发领域,不论是提出问题的一方还是解答问题的工程师,答疑工作都是一个避不开的重要环节。平时答疑遇到的体验问题如下:
  • 提问者视角:等待排队对及时性的影响,了解新技术时通读文档的成本问题
  • 值班人视角:接到过多的简单重复问题,常用知识沉淀的成本问题
此次分享嘉宾从研发答疑机器人为切入点,聚焦于研发答疑这一场景,探讨如何利用 LLM 技术协助值班人员提升回复效率,同时帮助提问者更快地找到问题的解决方案,从而整体优化答疑体验。
3.2  利用 LLM 改善答疑体验思路
利用 LLM 改善答疑体验思路主要如下:
  • 建设知识库,涵盖已有沉淀的实践文档、手册文档、组件库文档站等内容,为常用的咨询类问题利用 LLM + 知识库自动提供回复
  • 利用 LLM 提供答疑过程总结,帮助值班人员快速沉淀 FAQ
  • 通过自动回复前置拦截 → 未解决进入人工答疑 → 自动沉淀 FAQ 闭环,逐步完善,提升自动答疑的覆盖范围
分享嘉宾分享了两种建设智能客服的思路:RAGFineTuning。RAG 的优势主要是方便集成现有知识,方便动态更新知识,尽可能消除模型幻觉;FineTuning 的优势主要是定制模型生成内容的风格以及优化模型效果。在业务场景探索之后,分享嘉宾对这两个技术理念进行融合提供了更优的解决思路。
3.3  企业内的落地演进过程
这里具体演进过程不做细节分享了,主要对其中内容消费中遇到的文本切割方案的实现思路做个分享,还是很有借鉴意义的。
方案一:固定 Token 长度的切割
  • 解决的问题:模型上下文长度限制问题;
  • 存在的问题:文本语义被切断、全文语义丢失问题。
方案二:段落切割
  • 解决的问题:模型上下文长度限制问题;文本语义被切断问题。
  • 存在的问题:全文语义丢失问题;上下文关联丢失问题。
方案三:滑动窗口切割
  • 解决的问题:模型上下文长度限制问题;文本语义被切断问题;上下文关联丢失问题
  • 存在的问题:全文语义丢失问题;消耗更多的存储空间;检索结果需要消除重叠内容
方案四:下⽂关联、结构补全⽅式切割
  • 解决的问题:模型上下文长度限制问题;文本语义被切断问题;上下文关联丢失问题;利用模型提炼文档摘要。
最终的实现:通过结合 RAG 和 FineTuning 的最优解
3.4  个人的一些总结
嘉宾分享的内容虽然比较常见,但是真正从 0 到 1 去训练这样的机器人还是需要掌握很多大模型相关的知识,平时使用 ChatGPT 答疑习惯了之后,对具体实现没有太多的感知,真正听完别人分享之后,了解其原理细节,才意识到实现有其一定的复杂性。从嘉宾分享过程中,也学到了另外一种品质,就是做事情的思路要有条理且清晰,通过不断的实践来验证其可行性,使得技术实现能够达到最优解。具备这种品质当然离不开扎实的基本功和领域专业知识技能,学无止境,后续需要学习的地方还有很多。
三、圆桌会话题分享
在分享大会的第一天上午有幸参与了由 InfoQ 的技术运营组织的圆桌会话题,话题的内容主要围绕鸿蒙操作系统的发展现状以及目前各大公司与华为的对接情况,参会人员来自平安、美团、百度、华为、阿里和字节的客户端研发和部门负责人,当然也包括我们公司客户端的研发同学。我很有幸受公司技术运营叶兰的邀请参与了整场圆桌会的讨论,了解了鸿蒙操作系统及生态的一些进展。会后我也查阅了相关的资料以及华为开发者中心相关的文档,来加深对话题内容的印象。觉得很有必要给前端研发同学分享下鸿蒙生态的现状及相关的技术框架,或许对于前端研发来讲是一个不错的技术发展方向。
1.1  鸿蒙的现状及相关数据
如下图所示是 2023 年 8 月 4 日在华为开发者大会上分享的关于 HarmonyOS 的理念及开发者预览版的信息:
上面明确提到 2023 年 8 月对企业开发者开放,2024 年 Q1 对所有开发者开放。以下是摘自网站上关于 HarmonyOS 的一些信息:
  • 在 2023 年 12 月 19 日的开源产业生态大会上,华为终端 BG 软件部总裁龚体介绍,鸿蒙生态设备总量超过 7 亿台,其中华为自有设备 3 亿多台。他预计,到 2024 年,鸿蒙生态设备数量逐步达到 8 亿台至 10 亿台。
  • IDC 数据显示,截至 2023 年 11 月,华为手机在国内手机市场的份额达到了 14%。天风国际分析师郭明錤此前预测,2024 年华为手机出货量有望将至少达到 6000 万部,预计会增长近一倍。
  • 在 2023 年 12 月 29 日公开的新年致辞中,华为轮值董事长胡厚崑提及,“与伙伴共同加快移动应用鸿蒙化,实现鸿蒙生态的历史性跨越。
  • 在 2024 年 1 月 1 日,华为终端 BG、首席运营官何刚更新了自己的微博,并透露了 2024 年的一个重要方向:“今天,是 2024 年的第一天,这一年将是鸿蒙生态全面进化的关键一年。”
  • 在 2024 年 1 月 2 日,华为常务董事、终端 BG CEO、智能汽车解决方案 BU 董事长余承东发布全员信直言,“2024 年是原生鸿蒙的关键一年,要加快推进各类鸿蒙原生应用的开发,集中打赢技术底座和三方生态两大最艰巨的战斗。
  • 自 2023 年 11 月 23 日起,HarmonyOS 官方微博每一到两天就会宣布一家启动鸿蒙原生应用开发的厂商消息,从阿里钉钉、支付宝、同花顺,到搜狐、新浪、360,再到麦当劳、爱奇艺、京东等,短短两月时间内,就有超百家头部互联网应用厂商牵手鸿蒙
从 2023 年下半年以来,华为对于鸿蒙生态的建设明显加快了推进进程,截止到目前已经有很多的 APP 是基于鸿蒙原生 APP 开发并且已经投放使用。
1.2  HarmonyOS NEXT 与 AOSP
在了解鸿蒙技术框架之前先简单介绍下什么是 AOSP。AOSP 是一个由谷歌维护的开源操作系统开发项目。对于过往鸿蒙开发者来说,基于 AOSP 将安卓应用针对鸿蒙适配后即可兼容使用,这也是早期为什么很多人吐槽说 HarmonyOS 是套壳的 Android 系统的原因,因为 HarmonyOS 和 Android 都是基于底层 AOSP 二次开发的。但鸿蒙原生应用将基于华为自研的鸿蒙开发框架或底座进行开发,HarmonyOS NEXT 将不再含有 AOSP 的代码。换言之,未来鸿蒙将全面“脱钩”安卓,形成一套自己的独立生态
1.3  鸿蒙生态的原生开发框架 ArkUI
ArkUI 是华为方舟开发框架的简称,为 HarmonyOS 应用的 UI 开发提供了完整的基础设施,包括简洁的 UI 语法、丰富的 UI 功能,以及实时界面预览工具等,可以支持开发者进行可视化界面开发。分享嘉宾的汇总如下:
从分享嘉宾的内容来看,鸿蒙生态的原生开发框架语言 ArkTS,是基于 JS/TS 进一步演化而来的,在 JS/TS 基础上,扩展了声明式 UI 语法,对于前端研发来讲,很容易就能够上手。ArkUI 官方文档链接:方舟开发框架(ArkUI)概述
1.3.1  声明式语法扩展
从组件定义的代码来看,类似于 JS 里面的 class 类型组件的定义,同时用了注解 / 装饰器模式来扩展其功能。
1.3.2  ArkUI 运行机制概览
从上图可以看到,通过 ArkTS 编写的声明式语法在编译之后,和 Java 代码非常类似,基本上是一样的。编译之后的代码,在方舟引擎里面运行,通过 ArkUI 渲染引擎呈现最终的页面展示。
1.3.3  ArkUI 跨设备 UI 适配
ArkUI 内部提供了原生的响应式组件,其实现原理包括栅格布局、媒体查询等,跟前端 H5 在移动设备的响应式布局原理基本上是一样的。
1.3.4  ArkUI-X 跨平台能力
鸿蒙原生应用 ArkUI 框架提供了 XComponent 定义插件的方式,来扩展其生态。XComponent 定义的插件可独立编译和发布,无冗余的数据拷贝, 并且插件和框架渲染是解耦的。
1.4  关于圆桌会话题的总结
此次圆桌会关于鸿蒙话题的讨论,参与的人员都说了和华为那边对接的进度以及对鸿蒙系统的看法,其实从他们的表述来看,对接的并不是那么的顺利,过程中有很多的问题。每个公司客户端技术栈存在很多的差异性,比如美团那边主要以动态化为主,平安那边主要以 RN 为主,如果都让鸿蒙去适配不同厂商的实现也不太现实。会上也讨论了关于鸿蒙生态的崛起给研发带来的一些机会,比如目前市场上对鸿蒙研发的招聘诉求,如果鸿蒙操作系统真能在国内发展起来,那么对技术研发是一个很不错的机会,特别是对于 TS 技术掌握的比较好的前端研发同学,毕竟国内那么多的应用如果都要转成鸿蒙系统的原生 APP 的话,对这个技术掌握的诉求市场是非常大的。此次圆桌会收获真的很大,之前只是听说过鸿蒙操作系统,通过此次圆桌会的讨论,对鸿蒙的生态有了进一步的认识。
四、分享感受
作为参会者参与此次 QCon 上海站的软件开发者大会,收获真的很多。此次大会不仅参与了 LLM 在大前端的一些应用场景,也在会场线下了解了一些展厅展示 AI 产品的应用场景,拓宽了对 AI 技术的视野。虽然很多还听得不是很明白,但是对于一些实现有了初步的认识,后续再遇到,只需要花些时间 去熟悉相关内容就可以了。通过此次分享大会,和一些分享嘉宾的交流,也进一步认识到在前端这个领域,技术栈逐步成熟之后,当很多公司都在降本增效的时候,作为前端研发该如何提升自身的竞争力。AIGC、鸿蒙研发、高性能解决方案或许都是不错的发展机遇,多掌握一些技术,多实践前沿的技术,总是对的,机遇也总会留给那些有准备的人。希望以后公司还能继续提供这样的机会给到技术研发同学,因为很多前沿的技术以及技术实现框架流程,真的只能从分享嘉宾的演示文档里面才能挖掘出来。也希望公司的技术研发同学能够作为分享嘉宾参与到此类大会里面,分享公司内部基于一些业务场景的解决方案,提升公司的技术影响力。
活动推荐
探索软件开发的新境界!QCon 全球软件开发大会迎来全新升级,现已华丽转型为【QCon 全球软件开发大会暨智能软件开发生态展】。这不仅是一场技术盛宴,更是深度交流与创新展示的交汇点。我们诚邀您于 2024 年 4 月 11 日至 13 日,莅临北京·国测国际会议会展中心,共同见证并参与这场融合技术分享、深度研讨与前沿展览的综合性盛会。让我们携手开启智能软件开发的新篇章!
QCon 精华内容上线 92%,全面覆盖“人工智能 +”的典型案例!今天是会议 9折购票倒计时阶段,最后3天。联系票务经理 17310043226 。查看「阅读原文」可了解大会最新日程,期待与各位开发者现场交流。
继续阅读
阅读原文