wiki:koboldai
差别
两侧同时换到之前的修订记录前一修订版后一修订版 | 前一修订版后一修订版两侧同时换到之后的修订记录 |
wiki:koboldai [2023/03/16 19:27] – [备注] math | wiki:koboldai [2023/03/26 03:37] – [备注] math |
---|
ps:同样规模参数的模型,根据对通用模型微调任务的不同,会有其他专用模型,比如专门写冒险故事的模型、专门写小说的模型或专门聊天的模型。另外提一下,闭源ChartGPT的模型是175B,也就是1750亿参数模型。 | ps:同样规模参数的模型,根据对通用模型微调任务的不同,会有其他专用模型,比如专门写冒险故事的模型、专门写小说的模型或专门聊天的模型。另外提一下,闭源ChartGPT的模型是175B,也就是1750亿参数模型。 |
| |
为什么我们需要此类把服务安装到本地的电脑中?因为ChartGPT作为美国公司的闭源软件,用户发到上面的数据完全受到美国政府监控。 | ---- |
| |
| **为什么我们需要把此类人工智能服务安装到本地的电脑中?** |
| |
| //因为ChartGPT作为美国公司的闭源软件,用户发到上面的数据完全受到美国政府监控。除此之外,ChartGPT完全可以在个人对其产生依赖时大幅度提高其服务价格(或者通过缓慢输出文本等措施来降低目前免费用户的体验),或者直接像推特那样傲慢地大规模封杀中国用户不允许你使用,或者生成的内容带有强烈的政治色彩和盎格鲁撒克逊民族傲慢的非普世价值观!// |
| |
| //为此,我们必须尽可能地寻找此类人工智能服务的开源替代,因为它们将对未来人类日常生产生活方式产生强烈影响,绝不能让此类服务掌握在少数的且傲慢的人群手中。目前的开源[[人工智能]][[多模态模型]]包括:BigScience的176B模型[[https://huggingface.co/bigscience/bloom|Bloom]]和176B模型[[https://huggingface.co/bigscience/bloomz|Bloomz]],Bloom和Bloomz的模型过大,不适宜个人用户部署,但多个个人用户可以采取合作的方式以类似Bittorrent的形式分布式共同部署它(参见[[https://github.com/bigscience-workshop/petals|Petals]]);清华大学的6B中文多模态模型[[https://huggingface.co/THUDM/chatglm-6b|ChatGLM]],该模型可以运行在个人消费级电脑上(参见[[https://github.com/Akegarasu/ChatGLM-webui|ChatGLM-webui]]),个人也可以通过微调的方式实现模型的专业化(参见[[https://github.com/mymusise/ChatGLM-Tuning|ChatGLM-Tuning]])。// |
| |
====== 相关模型分类 ====== | ====== 相关模型分类 ====== |
wiki/koboldai.txt · 最后更改: 2023/05/11 22:08 由 ddkk