新闻资讯
MiniMax开放平台M2.7服务调整,因流量增长过快实施限流
服务调整公告”。平台将在高峰时段实施动态限流策略。该团队观测到,部分请求来自于超高并发的自动化批量任务或多用户共享模式,为了避免少数异常流量挤占公共算力池,保障大多数用户的稳定体验,将基于账户使用维度进行速率调控,保障算力资源分配的公平性。体系,据称能让模型深度参与自身训练与优化流程。
最近的几天时间里,在AI圈子当中,被讨论得最为热闹的那个话题,便是稀宇科技新近发布的M2.7大模型。这个号称具备“自我进化”能力的Agent模型呢,上线仅仅才两天时间,就由于流量过于庞大,从而被官方实施了限流举措。在3月20日这一天,开放平台对外发布了一则公告,表明M2.七里香的受欢迎程度远远超出了预期,在高峰时段需要启动动态限流。其原因也是相当直接的:一些具有超高并发特性的自动化批量任务,以及多人共同共享一个账号的模式,把公共算力池给挤兑得相当厉害。
异常流量挤占公共资源
按平台公告所示,此次限流指向的主要是那些异常请求,存在部分用户搞自动化脚本,借助程序持续调用模型接口的情况,另外还有多人共用一个账号的情形,这等同于把原本分配给一人的算力分摊给几十个人使用,此两种行为均致使算力资源分配不公,使得普通用户在想要使用时出现卡顿或者连不上的状况。
对于有关表述,平台方面称,此次所进行的调整,是依据账户使用的维度方面,来开展速率调控的。简单来讲,那便是对单个账号于一定时间范围之内的调用次数予以限制,以此确保大家均能够正常地进行使用。这样的一种做法,在行业领域当中是较为常见的,像GPT、Claude等这些大模型,也都具备了类似的机制,其主要目的在于防止少数的人过度使用资源对绝大多数人的体验造成影响。
M2.7模型性能有多强
3月18日,稀宇科技所发布的M2.7,其着力主打之处在于Agent能力以及模型自我进化,官方宣称表示,于部分研发场景当中,M2.7能够承担30%至50%的工作量,内部评测效果提升了大概30%,这意味着开发者可以借助它去写代码,去做测试,去调试程序,能够省下诸多时间。
尤其关键的是,M2.7于诸多基准测试当中展现出突出的表现。于SWE - Pro此项编程能力测试之内,M2.7获取了56.22%的正确率,径直达到了与GPT - 5.3 - Codex相同的水平。在VIBE - Pro代码生成基准方面,它同样取得了55.6%的分数,近乎和Opus 4.6相等。这样的成绩使得不少程序员都着手尝试运用它来辅助工作。
开发者涌入导致服务器过载
在M2.7发布之后,开发者社区的反应是极为迅速的。于3月19日这一天,在各大技术论坛以及开发者群之中,就存在着有人去分享使用体验的情况。有些人运用它自动修复了代码里的十几个漏洞,有些人利用它生成了完整的项目框架,另外还有些人将它接入到了自己的开发工具链里面。
这种热情致使服务器负载急剧增加,据稀宇科技内部人员透露,M2.7上线首日的API调用量超过预期三倍多,并且峰值时段集中于工作日的上午和下午,平台虽提前进行了扩容,可仍承受不住如此多的并发请求,不得不启动限流举措来确保服务稳定。
限流背后的行业普遍困境

诚然,大模型一经上线便会受到流量限制,M2.7既非首个,亦绝非最后一个。2024年,谷歌的Gemini甫一开放,便因流量过于庞大而关闭了注册通道;2025年,国内的DeepSeek也曾历经排队等待之所窘。此种现象背后影射出的乃是一个现实层面的问题:算力始终属于稀缺性资源。
大模型运行之时,其需耗费大量的 GPU 算力,训练这般一个模型,动不动就要几千万,甚至达到上亿的成本,而推理环节的运营费用亦是极为惊人,公司是绝不可能为了去应对短期的流量高峰,便进行无限采购服务器的,所以限流就成了平衡成本以及用户体验的无奈的举措,虽说这对于用户而言并不友好,然而却的确是当前阶段最为现实的选择。
用户怎么应对限流策略
对于平常的使用者而言,此次限流所造成的径直影响,便是在高峰时间段使用起来没那般顺畅了。平台发布的通告里表明,会依据账户的维度来实施速率调控,然而具体到每个账号能够调用的次数,官方并未公布确切的数字。有使用者反馈称,在下午两三点的时候要是调用得比较频繁,就会被临时限制几分钟。
倘若期望能够持续正常予以运用,那么便可以避开在工作日的上午10点直至下午4点的这个高峰期间段,转而挑选在晚上或者凌晨之时进行调用。另外还需要防止借助自动化脚本展开频繁请求,尽可能以人机交互式的方式来使用。要是属于团队开发的情形,建议各自去注册账号,而非共同 utilizes用一个账户,如此这般才能够确保每一个人都可以分到充足的调用额度。
模型自我进化带来的想象空间
最能吸引他人的关于M2.7之处,事实上正是它呈现出了“模型自我进化”的途径,稀宇科技于发布之际表明,M2.7能够投身到自身的训练以及优化进程里,借助构建Agent体系促使模型自我改良,这预示着未来较大的模型或许将不再全然依靠人工进行调参,而是能够自行迭代升级。
一旦这种能力切实落地实施,对于大模型行业来讲,其意义将会等同于当年Transformer架构问世之时。它极有可能极大幅度地削减模型迭代所需的成本以及周期,促使AI能力的提升步入快速发展通道。当然了,当下M2.7的自我进化主要还是处于研发场景之中,距离完全达到自主进化仍存在一定差距,然而此方向已然让不少人察觉到了下一代大模型的初步形态。
对于这样的一种限流方式,你认为它是不是合理的,要是你所开发的大模型突然间变得很火了,那你会怎样去平衡算力分配以及用户体验呢,欢迎在评论区里去聊聊你自身的看法。

