《全球防务动态》系列专刊简介
《全球防务动态》系列专刊国内独家每日发布涵盖航天领域、武器装备、军事热点、人工智能、先进制造等领域的全球动态信息。提供“航天动态专报”、“装备动态专报”、“军事动态专报”、“智造动态专报”以及“航天防务新闻日报”等特色产品模块。工作日每日推送,形成结构化、可编辑的文档,供订阅用户在小程序“智研烽火信息”商城下载。每日及时的动态信息能够有力支持各单位进行要讯报送、军情研究与安全形势分析的需求。
《智造动态专刊》简介
聚焦全球智能制造领域的权威情报产品,每日精选航空技术与应用、人工智能、工业机器人、增材制造、芯片工艺等核心技术突破与产业动态,以结构化、可编辑的文档形式呈现。内容涵盖技术解析、企业战略及政策影响,依托资深专家团队及强大的开源情报处理能力,助力企业快速捕捉技术趋势与市场机遇,把握智造脉搏,引领产业升级。
智造动态专报
1. GitHub调整AI训练政策用户数据默认用于模型训练 |
|
当地时间2026年3月26日据theregister网站消息,微软旗下GitHub宣布修订AI训练相关政策,计划自2026年4月24日起,将用户交互数据用于训练其AI模型,该政策适用于Copilot免费版、专业版及专业增强版用户,Copilot商业版、企业版用户及师生用户可获豁免。此次政策采用默认允许、用户可选择退出的模式,用户需前往指定页面关闭相关选项方可拒绝数据被使用。
GitHub方面表示,用户数据参与训练有助于提升模型理解开发工作流的能力,优化代码建议精准度与安全性,增强漏洞识别能力,并称纳入微软员工交互数据后模型已实现优化,代码建议采纳率有所提升。平台拟收集的数据涵盖模型输入输出、代码上下文、注释文档、文件结构、交互记录及用户反馈等内容。该调整也使得私有代码库定义发生变化,开启授权的用户在私有仓库使用Copilot时,相关代码片段可能被收集用于训练。
此次政策调整在GitHub社区引发负面反馈,相关投票中反对达59次、支持仅3次,评论区内除平台相关人员外鲜有支持者。GitHub还以Anthropic、JetBrains及微软采用同类政策作为自身做法的依据。
原新闻链接:
https://www.theregister.com/2026/03/26/github_ai_training_policy_changes/
2. 谄媚型AI普遍存在易误导用户并加剧社会风险 |
|
当地时间2026年3月27日据theregister网站消息,斯坦福大学研究团队发布研究指出,谄媚型人工智能存在普遍且严重的风险,会对用户判断与行为产生负面引导,相关危害具备广泛社会影响。
该团队对11款主流AI模型开展测试,涵盖OpenAI、Anthropic、谷歌及Meta、通义千问、DeepSeek、Mistral等相关模型,测试场景包含开放式咨询、社交论坛争议场景及涉及人身伤害相关表述。结果显示,所有测试案例中,AI认可错误选择的比例均高于人类,多数大语言模型即便在违背共识或有害情境下,仍会倾向肯定用户行为。研究共纳入2405名参与者,数据表明,与谄媚型AI互动后,用户会更坚信自身正确,降低承担责任、修复冲突的意愿,且13%的用户更偏好再次使用此类AI。
研究强调,无依据的肯定会扭曲用户认知,强化不良行为,该危害并非仅针对心理脆弱群体。由于谄媚型AI更易留存用户,仅靠行业自律难以改善,需监管机构介入,建立责任框架,将AI谄媚行为列为独立风险类型进行监管,同时要求模型部署前开展行为审计,研发方需重视用户长期福祉。
原新闻链接:
https://www.theregister.com/2026/03/27/sycophantic_ai_risks/
3. Anthropic调整Claude时段限额引导错峰缓解高峰需求 |
|
当地时间2026年3月26日据theregister网站消息,人工智能企业Anthropic于3月25日对旗下Claude产品的使用限额规则进行调整,通过高峰时段差异化计费方式平衡用户需求与平台服务承载能力。本次调整覆盖Claude免费版、Pro版、Max版等全部订阅用户,主要改动集中在高峰时段的5小时会话限额,用户每周总体使用额度则保持不变。
此次调整划定的高峰时段为太平洋时间05:00至11:00,对应格林尼治标准时间13:00至19:00。该时段内用户令牌消耗速度加快,可能在不足5小时内耗尽对应会话额度,非高峰时段则可完整使用5小时时长。Anthropic相关技术人员透露,约7%的用户会触及此前未触发的会话限制,其中Pro套餐用户受到的影响更为显著。平台已在非高峰时段完成扩容,整体服务配额并未缩减。
Anthropic同时通过API接口与订阅服务提供AI能力,API用户按令牌使用量计费,订阅用户包含免费、Pro、Max等多个档位。平台未公开令牌与使用时长的具体换算标准,用户仅可在后台查看限额消耗进度,超额后将被限制使用。企业表示将持续推进扩容工作,后续进展将及时对外同步。
原新闻链接:
https://www.theregister.com/2026/03/26/anthropic_tweaks_usage_limits/
4. FCC拟强制呼叫中心回流美国AI企业迎来发展新机遇 |
|
当地时间2026年3月26日据theregister网站消息,美国联邦通信委员会于当日全票通过相关规则制定程序,在五名委员缺两名的情况下达成最大限度一致,拟要求监管范围内企业将客服呼叫中心业务部分回流美国本土。
该委员会在拟议规则制定通知中提出,将对运营商境外呼叫中心呼出及接听客服电话比例设置上限,以此推动相关业务回流,并面向公众征集具体比例及逐步下调比例的相关意见。除比例限制外,草案还要求企业告知来电者客服所处位置,按需求转接至美国本土客服,敏感数据业务仅可由本土客服处理,同时通过经济手段整治呼叫中心垃圾短信与诈骗行为,提高境外客服英语水平要求。联邦通信委员会表示,此举源于境外呼叫中心的隐私安全隐患及行业客服质量长期偏低的问题,同时也需平衡监管目标与企业运营成本。
对此,呼叫中心自动化企业CTM相关负责人指出,企业大概率会扩大AI分类、路由及自动化系统的应用,以AI处理初始客户交互,仅由人工处理复杂敏感问题。目前该提案仍需经历公众意见征集及后续规则制定流程,未来AI客服的实际应用效果仍待观察。
原新闻链接:
https://www.theregister.com/2026/03/26/ai_companies_lick_their_chops/
5. Linux内核AI安全报告质量实现显著提升 |
|
当地时间2026年3月26日据theregister网站消息,Linux内核核心维护者格雷格・克罗哈-哈特曼在欧洲KubeCon大会期间透露,开源领域AI生成安全报告质量在近期出现根本性转变,相关有效报告数量持续增长且未现放缓趋势。
此前数月,开源项目收到的AI安全报告多为错误百出的低质内容,甚至被称作AI垃圾报告,部分项目还因此暂停漏洞赏金发放。约一个月前,这一局面出现拐点,Linux及各类开源项目开始大量接收高质量、高可靠性的AI安全报告,各开源安全团队均观察到相同变化,目前尚无法确定拐点出现的具体原因。克罗哈-哈特曼实验显示,简单提示词即可让AI生成60条问题及修复方案,其中三分之二补丁内容准确有效。当前AI主要用于代码审查与辅助修复,Linux基金会已集成谷歌捐赠的Sashiko工具,应用于绝大多数内核补丁审查,网络、DRM等子系统也已运用大模型开展审核工作,AI可快速标记明显问题,大幅缩短反馈周期。
业内正推动AI审查工具开源共享,避免仅资源充足团队受益,同时通过工具优化减轻维护者审核压力,让AI成为开发助力而非额外负担。
原新闻链接:
https://www.theregister.com/2026/03/26/greg_kroahhartman_ai_kernel/

完整版专报目录


扫码加入粉丝群享受更多福利





免责声明:本公众号目前所载内容为本公众号原创、网络转载或根据非密公开性信息资料编辑整理,相关内容仅供参考及学习交流使用。由于部分文字、图片等来源于互联网,无法核实真实出处,如涉及相关争议,请跟我们联系。我们致力于保护作者知识产权或作品版权,本公众号所载内容的知识产权或作品版权归原作者所有。本公众号拥有对此声明的最终解释权。
