aiXcoder 2.0 本地版正式上线,性能效果全面提升

AI应用信息10个月前发布 XIAOT
246 0
aiXcoder 2.0 本地版正式上线,性能效果全面提升
终于,AIxcoder 代码补全又有新提升啦,这次发布的 Java IntelliJ 插件,运用了全新深度学习模型,全新的预测过程。aiXcoder 2.0 终于摆脱了过去扛在肩上的众多包袱,它能更快更准地帮我们预测更多代码。
aiXcoder 2.0 本地版正式上线,性能效果全面提升
上面新版插件的补全效果不错吧,长推荐一串串帮我们输入,短推荐补全我们的键入。总体而言,迈入 2.0 的本地版 aiXcoder,它的特性有如下几点:
模型高效:
  • 推荐更准;
  • 适应性更强;
性能精炼:
  • CPU、内存占用少;
  • 启动速度快;
  • 推荐反馈速度快;
模型:更准更强大
深度学习模型,一直是 aiXcoder 的致胜法宝,它联合传统代码分析技术,能给出足够好用的预测。但代码生成,本身就比自然语言生成更难一些,模型一直在努力处理着一些难以解决的问题,例如它根本不认识的词。
而在新版插件中,深度学习模型准确率提升了,并且搞定了代码生成中的难题:用户词典简直太大啦。想想也就知道,我们在写代码时,经常会自定义很多变量与函数,使用、调用都得用它们,这样的词表远比自然语言要大,我们的深度学习模型也只能背负这一重担了。
而现在,词表这一问题得到了极大的缓解,随之而来不仅深度学习模型的准确率也提高了,而且它能在不同类型的项目给出自己最可靠的建议。
准确性与泛化能力,这是 aiXcoder 深度学习模型这次特别关注与优化的。我们目前只放出了 Java 语言上的 IntelliJ 本地版插件,但是等我们获得比较稳定的版本,模型表现也足够优秀,那么 Python、JavaScript 等语言的对应插件也都会发布。
插件:更小、更快、更精悍
模型已经努力了一把,那么插件呢?说出来你们可能不信,之前 aixcoder 本地版插件中,模型占的体积还不是最大的,还有很多比较大的模块与组件。它们在给出预测的同时,可能也会让你感觉速度太慢、包太大等等众多问题。
现在 aixcoder 插件特别精简,它的效果当然也更加优秀了。很多老用户可能会发现,之前 aixcoder 本地版插件在打开项目后,还需要等待几秒才能正常使用,因为它要索引本地函数与包,给你更准确的预测。
但现在,新版插件启动特别快,做预测也特别快,它占用的 CPU、内存等资源也降低了。
aiXcoder 2.0 本地版正式上线,性能效果全面提升
为了给你更准确的推荐,aiXcoder 只会推荐最有信心的预测。如同上图,aiXcoder只会给出两个预测,一个短推荐保证确实代码是我们所需要的,一个长推荐会给出更积极的预测。
怎么安装呢,让 Java 先试试
在 IntelliJ 插件市场上,我们可以直接搜索「aiXcoder」,并自动完成安装。广大 Java 开发者们,你们将第一批尝试到 aiXcoder 2.0 本地版的效果。
aiXcoder 2.0 本地版正式上线,性能效果全面提升
点击安装后,插件将自动安装到 IntelliJ 上,并且自动下载本地服务模型。安装后我们可以单击右侧的 aiXcoder 图标,这里会有很多设置与参数。例如中间的进度条,越靠近左边的「Faster」,模型的预测速度越快;越靠近「Longer」,你将给模型更多的计算时间,它也能预测更长的代码语句。
aiXcoder 2.0 本地版正式上线,性能效果全面提升
在上图的「Settings」中,还有一些参数可以配置,记得在「启动 aiXcoder」上打勾,不然插件根本不会启动模型。
aiXcoder 2.0 本地版正式上线,性能效果全面提升

最后,全新的 aiXcoder 2.0 本地版已经启动其它语言与 IDE 的支持了,很快各位开发者都能用上这全新的代码补全能力。

而 aiXcoder 就是为开发者而生,我们会不断努力把先进的AI技术应用于软件开发,为更多的开发者服务,把开发者从机械的代码逻辑中一步步解放出来,使人们能够把更多的时间和精力投入富有创造性的劳动中。
    © 版权声明

    相关文章