ChatGPT大语言模型LLaMA的源代码下载地址

下载 会员昵称:印修 会员头像: 关注 投稿量: 粉丝量: 关注量:   2024-02-06 03:50:37A+A-

ChatGPT大语言模型LLaMA的源代码下载地址(图1)


近日,国外知名论坛4chan中的一个帖子,爆出了疑似Meta最近发布类ChatGPT大语言模型LLaMA的源代码下载地址,瞬间在科技圈炸开了锅。



其实,LLaMA本身就是免费面向研究人员、机构的开源产品,但现在是申请使用阶段。需要Meta对用户的通途、背景、组织等进行审核,才能决定是否开放给你使用,也没有公布具体的开放时间。现在开心了,免去麻烦地审核流程,老铁们嗨起来吧。


「AIGC开放社区 」认为,此次LLaMA模型源代码遭泄露很可能是Meta内部人员所为。估计是看到前几天OpenAI开放了ChatGPT的API后,Meta惨遭背刺打乱了最初的产品布局计划。没办法,见招拆招只能剑走偏锋出此下策了,又不能匆忙地马上开放无限制使用,Meta可不想走谷歌Bard的“翻车”老路。


经过「AIGC开放社区 」对地址的测试,源代码一共是219G。目前下载速度处于满载状态,如果是500兆以上的光纤,估计2个小时内就完事了。想研究ChatGPT大语言模型的企业、科研机构、初创企业们机会来了,冲起来吧!


关于LLaMA


LLaMA模型与ChatGPT同样是基于Transformers模型演变而来。LLaMA共有70亿、130亿、330亿和650亿参数四种类型,接受了20种不同语言文本的训练,这使得研究人员能以更少的计算能力和资源来测试新的方法和探索新的用例。(后台发送“LLaMA论文”消息,获取原版论文。)


数据训练方面,LLaMA使用公开可用的数据集进行训练,其中包括开放数据平台Common Crawl、英文文档数据集C4、代码平台GitHub、维基百科、论文预印本平台ArXiv等,总体标记数据总量大约在1.4万亿个Tokens左右。


内容生成方面,LLaMA与其他大语言模型一样,是将一系列单词作为输入并预测下一个单词以递归生成文本。为了扩大文本边界,LLaMA使用了20多种语言文本进行训练。


Meta认为,在更多标记(单词)上训练的较小模型,更容易针对特定的潜在产品用例进行再训练和微调。例如,LLaMA在1.4万亿个Tokens上训练了330亿和650亿参数;在1万亿个Tokens上训练了70亿参数。



下载列表

购买该内容 ¥1000
立即购买
已有 人支付
点击这里复制本文地址 以上内容由用户上传和网络,如有侵权请邮件联系站长xzxkjd@qq.com!

1. 分享目的仅供大家学习和交流,您必须在下载后24小时内删除!

2. 不得使用于非法商业用途,不得违反国家法律。否则后果自负!

3. 本站提供的源码、模板、插件等等其他资源,都不包含技术服务请大家谅解!

4. 如有链接无法下载、失效或广告,请联系管理员处理!

5. 本站资源售价只是赞助,收取费用仅维持本站的日常运营所需!

6. 如遇到加密压缩包,请使用WINRAR解压,如遇到无法解压的请联系管理员!

7. 精力有限,不少源码未能详细测试(解密)不能分辨部分源码是病毒还是误报,所以没有进行任何修改,大家使用前请进行甄别

相关内容

加载中~

Copyright © 2012-2024 徐州鑫坤机电设备有限公司 版权所有
苏ICP备2023032739号-1 苏ICP备2023032739号-2 苏公网安备32038202000884
开发中 | 关键词 | 网站地图 | 网站地图 | 网站地图 | TAG集合

今日IP人数 0 今日浏览量(PV) 0 昨日IP人数 0 昨日浏览量(PV) 0 30天浏览量(PV) 0 总访浏览量(PV) 0

网站已运行:

在线客服
服务热线

服务热线

0516-86596070

联系邮箱

服务热线

xzxkjd.@qq.com

微信咨询
我的网站名称
交流群
我的网站名称
返回顶部
X我的网站名称

截屏,微信识别二维码

微信号:xkyinxiu

(点击微信号复制,添加好友)

  打开微信

微信号已复制,请打开微信添加咨询详情!