您好!欢迎访问极悦娱乐-极悦平台注册「畅享高质量游戏」官方网站!

服务咨询热线


400-123456

您当前的位置 : 首页 > 新闻中心 > 技术资讯

中国知名的数字化人才学习平台和技术社区

2024-09-05

  汇聚51CTO网站的各领域新鲜资讯,包括开发、移动开发、系统、网络、安全、数据库、大数据、人工智能、区块链、云计算、物联网、数字化转型、服务器、存储、商务办公、运维、开源、智能汽车等细分领域。

  最近登上Nature封面的那篇研究显示,这种用最初互联网数据训练的大模型,具有先发优势,数据质量最好,对应的模型性能也最好。 之后随着AI数据越来越泛滥,反而容易让大模型崩溃。

  主要贡献是提出了一种名为“Efficient Teacher”的半监督目标检测算法。与传统的监督学习算法不同,Efficient Teacher利用无标签数据进行训练,并且在训练过程中使用了半监督学习的方法。这种方法可以有效地利用无标签数据,减少过拟合的风险,并且可以提高模型的泛化能力。

  Neuralink二号患者已植入,数亿人将实现心灵感应?马斯克惊人计划曝光

  马斯克激动宣告,Neuralink已为第二位人类成功植入脑机接口,400根电极一切顺利。最新播客采访中,马斯克带着核心团队揭秘了Neuralink团队工作,以及与人类未来的畅想。他表示,今年还将完成8次植入。

  美国拟议禁止自动驾驶汽车使用中国软件;苹果警告微信、抖音再“避税”就“停更”;英伟达新款AI芯片被曝有重大缺陷将跳票

  Character.AI的CEO诺姆·沙泽尔(Noam Shazeer)和总裁丹尼尔·德弗雷塔斯(Daniel De Freitas)带领约30名员工离开公司,重返谷歌,并参与Gemini AI项目。

  ICML 2024演讲爆火!Meta朱泽园揭秘大模型内心世界:不同于人类的2级推理

  与 99% 以上的研究 LLM 行为过程(behavior process)的论文不同,本文作者另辟蹊径,揭示了 LLM 在解决数学问题时的心理过程(mental process),为理解 LLM 的智能提供了新的视角。

  小技巧大功效,「仅阅读两次提示」让循环语言模型超越Transformer++

  在最近的论文《Just read twice: closing the recall gap for recurrent language models》中,来自斯坦福大学、布法罗大学的研究者通过简单观察发现,数据在推理期间涌入循环语言模型的排序极大地影响了在有限内存中预测存储哪些信息的难度。

  重拳将至!英伟达的四面楚歌时刻——被硅谷大厂抛弃、被同行踢出群聊、被反垄断组织视为眼中钉……政府调查或最终来临,英伟达能扛过吗?

  7月30日,英伟达暴跌超过7%,市值蒸发了1930亿美元(相当于蒸发掉了一个拼多多,后者的市值约为1775亿美元)。而本月以来,该股累计跌幅达到16.5%,被认为是2022年9月以来的最差月度表现。

  “卡脖子”有解了?中国超算能否成为“全村的希望”?专家:不必学马斯克猛堆10万块GPU,大模型专用超算或将「破壁」算力瓶颈

  英伟达新推出的最强芯片GB200就是这个思路,该芯片由两个B200 Blackwell GPU和一个基于Arm的Grace CPU组成。通过NVIDIA先进的 NVLink-C2C互连技术,CPU和GPU之间可以紧密协同,以减少数据在两者之间的传输时间,提高处理速度。

  首个快速知识蒸馏的视觉框架:ResNet50 80.1%精度,训练加速30%

  今天介绍一篇来自卡耐基梅隆大学等单位ECCV的一篇关于快速知识蒸馏的文章,用基本的训练参数配置就可以把 ResNet-50 在 ImageNet-1K 从头开始 (from scratch) 训练到 80.1% (不使用 mixup,cutmix 等数据增强),训练速度(尤其是数据读取开销)相比传统分类框架节省 16% 以上,比之前 SOTA 算法快 30% 以上,是目前精度和速度双双最优的知识蒸

  对比学习滥用隐私数据!中科院等发布「多步误差最小化」方法 ACM MM2024

  研究人员提出了一种新颖的多步误差最小化(MEM)方法,用于生成多模态不可学习样本,以保护个人数据不被多模态对比学习模型滥用。通过优化图像噪声和文本触发器,MEM方法有效地误导模型,降低其对隐私数据的学习能力,并在不同模型间展现出强大的可迁移性。

  目标检测模型在定位和分类训练期间显示目标时表现良好,然而,由于创建和注释检测数据集的难度和成本,训练过的模型检测到数量有限的目标类型,未知目标被视为背景内容。这阻碍了传统检测器在现实应用中的采用,如大规模物体匹配、visual grounding、视觉关系预测、障碍检测(确定物体的存在和位置比找到特定类型更重要)等。

  近年来,Transformer 已经成为了 NLP 和 CV 等领域的主流模型,但庞大的模型参数限制了它的高效训练和推理。于是字节跳动在 2019 年 12 月和 2021 年 6 月分别推出了高效推理和训练引擎 LightSeq,大大加速了 Transformer 系列模型的训练和推理。


标签