您好,欢迎进入雷火官方网站!
雷火官方金属容器加工制造立式罐、油罐、不锈钢罐
全国咨询热线:13618284466

MediaTek 运用 Meta Llama 2 大语言模型赋能终端设备生成式 AI 应用

来源:雷火官方    发布时间:2023-12-10 01:14:16

  MediaTek 今日宣布利用 Meta 新一代开源大语言模型(LLM)Llama 2 以及 MediaTek 先进的 AI 处理器(APU)和完整的 AI 开发平台(NeuroPilot),建立完整的终端侧 AI 计算生态,加速智能手机、物联网、汽车、智能家居和其他边缘设备的 AI 应用开发,为终端设备提供更安全、可靠和差异化的使用体验。预计年末采用 MediaTek 新一代天玑旗舰移动芯片的智能手机支持由 Llama 2 模型开发的 AI 应用,可为用户所带来振奋人心的生成式 AI 应用体验。

  MediaTek 资深副总经理暨无线通信事业部总经理徐敬全博士表示:“生成式 AI 的日益普及是数字化转型的重要趋势之一,我们的愿景是为 Llama 2 的开发者和最终用户提供工具,带来更多令人兴奋的 AI 创新机遇和产品体验。通过与 Meta 的伙伴关系,MediaTek 可提供更强大的硬件和软件整体解决方案,为终端设备带来远超以往的功能和体验。”

  目前,大多数生成式 AI 都依赖云计算,MediaTek 基于 Llama 2 模型成功实现直接在终端设备上运行生成式 AI 应用。这将为开发者和用户更好的提供独特优势,包括无缝的使用体验,更强的用户个人信息安全和可靠性,更低延迟,离线运算的能力及更低的经营成本,让每一个人都能享受到生成式 AI 带来的便捷与创新。

  要在终端设备上充分释放生成式 AI 的潜力,设备制造商需采用高算力、低功耗的 AI 处理器(APU),并通过更快、更可靠的网络连接来增强设备的整体算力。如今,每一颗 MediaTek 5G 智能手机 SoC 均搭载 AI 处理器,已广泛执行生成式 AI 应用成功案例,例如 AI 降噪(AI-NR)、AI 超级分辨率(AI-SR)以及 AI 运动补偿(AI-MEMC)等。

  MediaTek 将于年末推出新一代旗舰移动芯片,将采用针对 Llama 2 模型而优化的软件栈(NeuroPilot),与搭配支持 Transformer 模型做骨干网络加速的升级版 AI 处理器(APU),可减少动态随机存取内存(DRAM)的读写消耗和带宽占用,进一步强化大语言模型和生成式 AI 应用的性能,助力开发者打造令人惊艳的 AI 应用,加速终端设备 AI 应用落地发展。

  广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更加多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

重庆埋地油罐