智谱推出「智谱AI输入法」,“指尖即模型,语音即指令”

即日起,智谱AI输入法面向所有用户开放。

副本智谱输入法202.png

即日起,智谱AI输入法面向所有用户开放。

据IPO早知道消息,智谱于12月10日正式发布并开源GLM-ASR系列语音识别模型,并推出基于该系列模型打造的桌面端智谱AI输入法。

智谱指出,其希望让用户真正做到“动动嘴,活就干了”,从“把话变成字”走向“直接用语音完成任务”。

作为智谱新一代语音识别模型,GLM-ASR-2512支持将语音实时转换为文字。在多场景、多语种、多口音的真实复杂环境测试中,保持行业领先的识别表现,字符错误率(CER)仅为0.0717。

副本智谱输入法678.png在此基础上,智谱开源了GLM-ASR-Nano-2512。这是一个1.5B参数的端侧模型,却取得了当前开源语音识别方向的SOTA表现,并在部分测试中优于若干闭源模型。它将识别能力压缩到本地运行,在保证高精度的同时,实现更强的隐私保护与更低的交互延迟。

基于上述模型能力,智谱正式上线智谱AI输入法,让用户在PC端用语音丝滑交互。用户不但可以实现精准的语音转文字,还可以实现翻译、改写等智能操作,真正实现“指尖即模型,语音即指令”。具体而言:

智谱AI输入法基于GLM-ASR系列模型打造,让用户在电脑端用语音丝滑交互。用户不仅可以实现精准的语音转文字,还可以在输入法中直接调用大模型能力,完成翻译、改写、情绪转化等操作,实现“指尖即模型,语音即指令”。

所选即所改,从听写到改写的一体化:传统输入法只负责打字,而智谱AI输入法直接调用底层GLM模型帮助用户翻译、扩写、精简屏幕上的任意一段文字,同时完成智能润色,让输出更加自然、通顺。整个过程在输入框内完成,实现“理解-执行-替换”一体化,无需在多个应用间反复切换。

千人千面人设切换:支持设置不同“人设”风格,实现同一句话在不同场景下的不同表达。例如,在工作场景中,选择“面对老板”,口语化的碎碎念瞬间转化为逻辑严谨、条理清晰的工作汇报;在生活场景中,切换至“面对伴侣”,文字则变得温柔俏皮,贴近日常聊天语境。

Vibe Coding(语感编程)搭子:针对开发者,智谱特别推出了Vibe Coding体验,并与智谱Coding Plan账号打通。结合多语言支持与代码理解能力,开发者可以通过语音快速输入代码逻辑和注释、查找遗忘的Linux指令、用自然语言指挥AI完成复杂数学计算或脚本编写。同样,设计师也可以从传统的“用手抠图”过渡到“用嘴做设计”。

耳语捕捉与高效热词:针对开放式办公室、图书馆等公共场景,智谱优化了对微弱声音的捕捉能力,并区分环境噪声。只需轻声说话,即可精准转为文字,解决公共场合“不好意思用语音输入”的痛点。同时,支持用户一键导入专属词汇、项目代号(如AutoGLM)及生僻人名、地名等。只需在设置中添加一次。

即日起,智谱AI输入法面向所有用户开放。

本文为IPO早知道原创

作者|Stone Jin


格隆汇声明:文中观点均来自原作者,不代表格隆汇观点及立场。特别提醒,投资决策需建立在独立思考之上,本文内容仅供参考,不作为实际操作建议,交易风险自担。

相关阅读

评论