首页  资讯  商机   下载  拆解   高校  招聘   杂志  会展  EETV  百科   问答  电路图  工程师手册   Datasheet  100例   活动中心  E周刊阅读   样片申请
EEPW首页 >> 主题列表 >> npu

Intel AI创新应用大赛落幕:CPU+GPU+NPU三位一体开始发力

  • AI PC方兴未艾,而除了CPU、GPU、NPU这样的基础硬件,更关键的是应用软件与场景的生态落地。只有从应用上真正改变人们的日常工作、生活体验,带来真正的便利,AI PC才能取得成功。作为行业执牛耳者,Intel不但率先倡导了AI PC的概念,带来了史上变革最大的酷睿Ultra处理器、大量的AI PC笔记本,领导PC全面进入AI时代,更在生态拓展方面不遗余力地投入。按照Intel的宏图大愿,AI PC 2024年的出货量就会有大约4000万台,而到了2025,这一市场规模将超过1亿台,走进千家万户。为了
  • 关键字: Intel  CPU  GPU  NPU  

Arm:致力于成为边缘AI发展与创新的坚实基石

  • 边缘智能是人工智能的一种部署形式,无论中央人工智能,还是边缘智能,都需要算力支撑。而集中和分布式计算呈现出相互促进和交替发展的趋势。作为移动处理器领域市场的引领者,Arm 的各类处理器内核在边缘端的MCU、NPU 和MPU 等领域引领着技术发展的未来。Arm物联网事业部业务拓展副总裁 马健谈到边缘智能,Arm 物联网事业部业务拓展副总裁马健表示,伴随着Transformer与大模型的发展,AI模型的普适性、多模态支持,以及模型微调效率都有了质的突破,加上低功耗的AI 加速器和专用芯片被集成到终端和边缘设备
  • 关键字: 202405  Arm  边缘AI  边缘智能  NPU  

爱芯通元NPU完成Llama 3和Phi-3大模型适配

  • 人工智能芯片研发及基础算力平台公司爱芯元智宣布,近日,Meta、Microsoft相继发布具有里程碑意义的Llama 3系列和Phi-3系列模型。为了进一步给开发者提供更多尝鲜,爱芯元智的NPU工具链团队迅速响应,已基于AX650N平台完成 Llama 3 8B和Phi-3-mini模型适配。Llama 3上周五,Meta发布了Meta Llama 3系列语言模型(LLM),具体包括一个8B模型和一个70B模型在测试基准中,Llama 3模型的表现相当出色,在实用性和安全性评估中,与那些市面上流行的闭源模
  • 关键字: 爱芯通元  NPU  Llama 3  Phi-3  大模型  

MCX N系列微处理器之NPU使用方法简介

  • MCX N系列是高性能、低功耗微控制器,配备智能外设和加速器,可提供多任务功能和高能效。部分MCX N系列产品包含恩智浦面向机器学习应用的eIQ? Neutron神经处理单元(NPU)。低功耗高速缓存增强了系统性能,双块Flash存储器和带ECC检测的RAM支持系统功能安全,提供了额外的保护和保证。这些安全MCU包含恩智浦EdgeLock?安全区域Core Profile,根据设计安全方法构建,提供具有不可变信任根和硬件加速加密的安全启动。MCX N系列微型处理器:MCXN94xMCXN54x基
  • 关键字: NXP  MCX  NPU  微处理器  

MCU+NPU,Arm引领物联网全面智能化时代

  • 人工智能作为过去两年以及未来几年注定爆火热点应用,始终缺乏足够的落地方案确保盈利能力,即使目前最火爆的生成式AI(AIGC)依然属于烧钱阶段。因此,支撑AI未来商业价值的,并不只是人们看到的大模型和AIGC,还需要更多终端节点对人工智能应用的支持。 算力成本是人工智能应用中不可回避的话题,毕竟从算力开销上来说,单纯把所有计算都放在云端不仅带来的是庞大的算力构建费用,更是因为大量数据的反复传输而带来能效方面的开销。因此,将算力资源合理的分配到云端和边缘侧可以更好地发挥不同节点的处理资源,将复杂AI推理和训练
  • 关键字: MCU  NPU  Arm  物联网  AI  

AI PC一触即发,存储器、NPU等大放异彩!

  • AI浪潮正持续改变各行各业,此前历经下行周期的PC市场也开始迎来新的机会。今年以来,无论是美国消费电子展(CES)还是巴塞罗那世界移动通信大会(MWC),AI PC都成为了当之无愧的焦点,包括英特尔、AMD、英伟达等芯片大厂,以及联想、戴尔、宏碁、华硕、荣耀等下游厂商纷纷推出相关产品,布局AI PC。业界直言,2024年或是AI PC元年,这一风口下,半导体领域NPU以及存储器等有望持续受益。一 AI PC一触即发,半导体大厂瞄准NPUChatGPT的横空出世,让人见识到了AI大模型的威力,随后,
  • 关键字: AI PC  存储器  NPU  

NPU是什么?为何它是开启终端侧生成式AI的关键?

  • 生成式AI变革已经到来。随着生成式AI用例需求在有着多样化要求和计算需求的垂直领域不断增加,我们显然需要专为AI定制设计的全新计算架构。这首先需要一个面向生成式AI全新设计的神经网络处理器(NPU),同时要利用异构处理器组合,比如中央处理器(CPU)和图形处理器(GPU)。通过结合NPU使用合适的处理器,异构计算能够实现最佳应用性能、能效和电池续航,赋能全新增强的生成式AI体验。正如在工具箱中选择合适的工具一样,选择合适的处理器取决于诸多因素,将增强生成式AI体验。异构计算的重要性生成式AI的多样化要求和
  • 关键字: NPU  AI  计算架构  

采用芯原NPU IP的AI类芯片已在全球出货超过1亿颗

  • 芯原股份近日宣布集成了芯原神经网络处理器(NPU)IP的人工智能(AI)类芯片已在全球范围内出货超过1亿颗,主要应用于物联网、可穿戴设备、智慧电视、智慧家居、安防监控、服务器、汽车电子、智能手机、平板电脑、智慧医疗等10个市场领域。在过去七年里,芯原在嵌入式AI/NPU领域全球领先,其NPU IP已被72家客户用于上述市场领域的128款AI芯片中。芯原的NPU IP是一款高性能的AI处理器IP,采用了低功耗、可编程和可扩展的架构设计。它可以灵活配置,以满足客户对芯片尺寸和功耗的不同要求,使之成为具有成本效
  • 关键字: 芯原  NPU IP  AI芯片  

赋能半导体产业变革,助力智能物联和智能汽车领域本土创新

  • 2023年已落下帷幕,全球半导体市场在经历了一年的波折之后,迎来了更加不确定的2024年。在这个关键时刻,安谋科技作为芯片供应链上游的核心企业,凭借敏锐的产业嗅觉和稳健的技术投入,持续赋能行业的创新发展。受访人:赵永超(安谋科技智能物联及汽车业务线负责人)?在2023年,安谋科技发布了“周易”X2 NPU和“山海”S20F SPU两款自研业务新品,并与Arm联合推出了智能视觉参考设计。这些产品和技术解决方案为新兴市场提供了系统级、全栈式的支持,有力地推动了智能汽车、AIoT、移动终端、数据中心基
  • 关键字: 安谋科技  NPU  SPU  芯片IP  

Ceva联同汽车和边缘人工智能领域全新合作伙伴,扩展业界领先NPU IP的人工智能生态系统

  • 帮助智能边缘设备更可靠、更高效地连接、感知和推断数据的全球领先硅产品和软件IP授权许可厂商Ceva公司(纳斯达克股票代码:CEVA) 宣布与两家瞄准汽车和视觉边缘人工智能(Edge AI)应用的新合作伙伴结盟,扩大业界领先的NeuPro-M NPU IP人工智能生态系统。?????? Ceva副总裁兼视觉业务部门总经理Ran Snir表示:“我们热烈欢迎Visionary.ai和ENOT.ai加入支持智能边缘客户群的合作伙伴生态系统。这些合作伙伴
  • 关键字: Ceva  NPU IP  人工智能  CES  

AI 处理能力快 14.7 倍,三星 Exynos 2400 芯片 NPU 信息曝光

  • IT之家?10 月 24 日消息,三星于今年 10 月 5 日在美国加州圣何塞举办的 System LSI 技术日活动中,正式宣布了 Exynos 2400 处理器,表示 CPU 性能要比 Exynos 2200 快 70%,AI 处理能力快 14.7 倍。国外科技媒体?Android?Headlines 近日分享了 Exynos 2400 处理器 NPU 芯片的更多细节。报告称三星大幅优化了 NPU 芯片对非线性运算的支持,通过架构调整等优化手段,Exynos 2400 在
  • 关键字: 三星  NPU  SoC  

Cadence推出面向硅设计的全新Neo NPU IP和NeuroWeave SDK,加速设备端和边缘AI性能及效率

  • ●? ?Neo NPU可有效地处理来自任何主处理器的负载,单核可从 8 GOPS 扩展到 80 TOPS,多核可扩展到数百 TOPS●? ?AI IP可提供业界领先的 AI 性能和能效比,实现最佳 PPA 结果和性价比●? ?面向广泛的设备端和边缘应用,包括智能传感器、物联网、音频/视觉、耳戴/可穿戴设备、移动视觉/语音 AI、AR/VR 和 ADAS●? ?全面、通用的 NeuroWeave SDK 可通过广泛的 Caden
  • 关键字: Cadence  Neo NPU IP  NeuroWeave SDK  

CEVA推出增强型NeuPro-M NPU IP系列,大力推动生成式AI

  • 全球领先的无线连接、智能感知技术及定制SoC解决方案的授权许可厂商CEVA, Inc. (纳斯达克股票代码: CEVA)宣布推出增强型NeuPro-M NPU系列,以业界领先的性能和能效满足下一代生成式人工智能(Generative AI)的处理需求,适用于从云端到边缘的各类别的人工智能推理工作负载。NeuPro-M NPU架构和工具经过重新设计,除支持CNN和其他神经网络外,还支持transformer网络,并支持未来的机器学习推理模型,因而能够在通信网关、光连接网络、汽车、笔记本电脑和平板电脑、AR/
  • 关键字: CEVA  NPU IP  生成式人工智能  Generative AI  

爱芯元智正式公布混合精度NPU中文名称“爱芯通元?”

  • 中国 上海 2023年7月19日——爱芯元智宣布,企业核心技术混合精度NPU正式启用中文名称“爱芯通元?”。与此同时,爱芯元智联合创始人、副总裁刘建伟在第三届中国集成电路设计创新大会暨无锡IC应用博览会(ICDIA 2023)的“AIoT与ChatGPT”专题论坛上,受邀做《爱芯元智AX650N Transformer端边落地平台》主题演讲,并介绍了第三代SoC芯片AX650N在端侧、边缘侧部署Transformer的领先优势。 爱芯元智混合精度NPU中文名“爱芯通元?”正式公布近年来,AIoT
  • 关键字: 爱芯元智  NPU  爱芯通元  

爱芯元智AX650N成Transformer最佳落地平台

  • 近来,ChatGPT成为社会各界关注的焦点。从技术领域看,ChatGPT的爆发是深度学习领域演进、发展和突破的结果,其背后代表着Transformer结构下的大模型技术的飞速进展。因此,如何在端侧、边缘侧高效部署Transformer也成为用户选择平台的核心考量。2023年3月,爱芯元智推出了第三代高算力、高能效比的SoC芯片——AX650N,依托其在高性能、高精度、易部署、低功耗等方面的优异表现,AX650N受到越来越多有大模型部署需求用户的青睐,并且先人一步成为Transformer端侧、边缘侧落地平
  • 关键字: 爱芯元智  Transformer  NPU  
共45条 1/3 1 2 3 »
关于我们 - 广告服务 - 企业会员服务 - 网站地图 - 联系我们 - 征稿 - 友情链接 - 手机EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《青春禁区在线观看免费游戏世界》杂志社 版权所有 北京东晓国际技术信息咨询有限公司
备案 京ICP备12027778号-2 北京市公安局备案:1101082052    京公网安备11010802012473