热点新闻
电脑上的GPT之GPT4All安装及使用
2023-07-09 20:46  浏览:836  搜索引擎搜索“爱农网”
温馨提示:信息一旦丢失不一定找得到,请务必收藏信息以备急用!本站所有信息均是注册会员发布如遇到侵权请联系文章中的联系方式或客服删除!
联系我时,请说明是在爱农网看到的信息,谢谢。
展会发布 展会网站大全 报名观展合作 软文发布

最重要的Git链接

众所周知ChatGPT功能超强,但是OpenAI 不可能将其开源。然而这并不影响研究单位持续做GPT开源方面的努力,比如前段时间 meta 开源的 LLaMA,参数量从 70 亿到 650 亿不等,根据 meta 的研究报告,130 亿参数的 LLaMA 模型“在大多数基准上”可以胜过参数量达 1750 亿的 GPT-3。

斯坦福也在 LLaMA 的基础上加入指令微调(instruct tuning),训练了一个名为 Alpaca 的 70 亿参数新模型(基于 LLaMA 7B)。结果显示,只有 70 参数的轻量级模型 Alpaca 性能也可媲美 GPT-3.5 这样的超大规模语言模型。

语言模型 GPT4All,这也是一种基于 LLaMA 的新型 7B 语言模型。

1. 克隆gpt4all




克隆gpt4all

2. 下载gpt4all-lora-quantized.bin文件

下载地址




WX20230404-185320.png

3. 下载成功后把gpt4all-lora-quantized.bin文件复制到刚刚克隆的gpt4all文件的chat文件夹中




WX20230404-185546.png

4. 执行您的操作系统运行适当的命令:

  • M1 Mac/OSX:cd chat;./gpt4all-lora-quantized-OSX-m1
  • Linux:cd chat;./gpt4all-lora-quantized-linux-x86
  • Windows(PowerShell):cd chat;./gpt4all-lora-quantized-win64.exe
  • 英特尔Mac/OSX:cd chat;./gpt4all-lora-quantized-OSX-intel



WX20230404-185755.png

然后就完成了

发布人:2257****    IP:117.173.23.***     举报/删稿
展会推荐
让朕来说2句
评论
收藏
点赞
转发