汕头网站建设备案,wordpress恢复网站,网络技术人员,差差软件下载免费前言
近两年AIGC发展的非常迅速#xff0c;从刚开始的只有ChatGPT到现在的很百家争鸣。从开始的大参数模型#xff0c;再到后来的小参数模型#xff0c;从一开始单一的文本模型到现在的多模态模型等等。随着一起进步的不仅仅是模型的多样化#xff0c;还有模型的使用方式。…前言
近两年AIGC发展的非常迅速从刚开始的只有ChatGPT到现在的很百家争鸣。从开始的大参数模型再到后来的小参数模型从一开始单一的文本模型到现在的多模态模型等等。随着一起进步的不仅仅是模型的多样化还有模型的使用方式。大模型使用的门槛越来越低甚至现在每个人都可以在自己的电脑上运行模型。今天我们要说的就是大模型工具中的佼佼者Ollama,并演示如何通过C#来使用Ollama。Ollama
Ollama是一个开源的大语言模型LLM服务工具它允许用户在本地PC环境快速实验、管理和部署大型语言模型。它支持多种流行的开源大型语言模型如 Llama 3.1、Phi 3、Qwen 2、GLM 4等并且可以通过命令行界面轻松下载、运行和管理这些模型。Ollama的出现是为了降低使用大型语言模型的门槛是让大型语言模型更加普及和易于访问。一言以蔽之就是Ollama让使用模型更简单。无论是CPU或是GPU都可以算力高的话推理速度更快算力不足的话推理的慢而且容易胡言乱语。安装
Ollama的安装方式常用的有两种一种是去官网下载另一种是去GitHub下载可以选择对应的系统版本进行下载 • 官网首页直接下载 https://ollama.com/ • Github Relase下载 https://github.com/ollama/ollama/releases
我的是Windows操作系统所以直接下载一路Next就可以默认安装在C盘无法更改强迫症的话可以通过mklink做链接但是自动更新之后还是在C盘。自动升级这一块不用太担心联网的情况如果有新版本Ollama会推送更新。
安装完成之后可以修改常用的环境变量 • 通过OLLAMA_MODELS环境变量设置模型下载的位置默认是在C盘可以换成其他地址。 • 通过OLLAMA_HOST设置Ollama服务监听的端口默认的是11434。
安装完成之后通过version查看如果显示版本号则安装成功。
ollama --version比较常用的指令不多也很简单 • ollama list列出本地下载的模型 • ollama ps查看正在运行的模型 • ollama pull 模型标识下载模型到本地比如我要下载qwen2 7b则使用ollama pull qwen2:7b • ollama run 模型标识运行模型如果已下载则直接运行如果没下载则先下载再运行。比如我要运行qwen2 7b可以直接运行ollama run qwen2:7b
也可以将本地已有的GGUF模型导入到Ollama中去操作也很简单。 编写一个名为Modelfile的文件写入以下内容FROM 模型路径/qwen2-0_5b-instruct-q8_0.gguf 通过Ollama创建模型ollama create qwen2:0.5b -f Modelfile 运行刚创建的模型ollama run qwen2:0.5b
需要注意的是运行7B至少需要8GB的内存或显存运行13B至少需要16GB内存或显存。我电脑的配置信息如下
型号: 小新Pro16 AI元启
CPU: AMD Ryzen 7 8845H
内存: 32.0 GBAMD Ryzen 7 8845H内置NPU整体算力还可以, 运行运行13B及以下的模型没太大问题。当然这种级别参数大小的模型不会是一个无所不能的模型这种量级的模型运行成本相对较低适合做一些特定场景的推理任务。如果需要无所不能的模型建议还是直接使用ChatGPT这种商业模型。
命令启动
下载模型完成之后可以测试运行通过cmd运行指令比如我运行起来qwen2:7b模型 这种方式比较简单只能是文字对话的方式而且没有样式简单粗暴。
接口访问
Ollama提供服务的本质还是http接口我们可以通过http接口的方式来调用/api/generate接口
curl http://localhost:11434/api/generate -d { model: qwen2:7b, prompt: 请你告诉我你知道的天气有哪些用json格式输出, stream: false
}• model设置模型的名称 • prompt提示词 • stream设置为false要求不要流式返回
因为是一次性返回所有内容所以需要等待一会如果需要流式输出可以设置为true。等待一会后接口返回的信息如下所示
{ model:qwen2:7b, created_at:2024-09-04T06:13:53.1082355Z, response:json\n{\n \常见天气\: [\n {\n \类型\: \晴\,\n \描述\: \天空无云或有少量高薄云日间阳光充足。\,\n \符号\: \☀️\\n },\n {\n \类型\: \多云\,\n \描述\: \大部分天空被云层覆盖但能见蓝天太阳时隐时现。\,\n \符号\: \️\\n },\n {\n \类型\: \阴天\,\n \描述\: \全天或大部分时间云量较多几乎看不到阳光光线较暗。\,\n \符号\: \☁️\\n },\n {\n \类型\: \雨\,\n \子类型\: [\n {\n \类型\: \小雨\,\n \描述\: \降水量不大通常不会形成积水。\,\n \符号\: \️\\n },\n {\n \类型\: \中雨\,\n \描述\: \降水量适中可能会有局部积水。\,\n \符号\: \️\\n },\n {\n \类型\: \大雨\,\n \描述\: \降水量大可能伴有雷电和强风。\,\n \符号\: \⛈️\\n }\n ]\n },\n {\n \类型\: \雪\,\n \子类型\: [\n {\n \类型\: \小雪\,\n \描述\: \积雪较轻地面可能仅局部有薄雪覆盖。\,\n \符号\: \❄️\\n },\n {\n \类型\: \中雪\,\n \描述\: \降雪量中等地面和部分植被可能有积雪。\,\n \符号\: \️\\n },\n {\n \类型\: \大雪\,\n \描述\: \降雪量很大地面积雪深厚交通和生活受严重影响。\,\n \符号\: \❄️\\n }\n ]\n },\n {\n \类型\: \雾\,\n \描述\: \大气中的水汽在地面或近地面凝结形成大量悬浮的微小水滴或冰晶的现象。\,\n \符号\: \️\\n },\n {\n \类型\: \雷阵雨\,\n \描述\: \突然而短暂的强降雨伴有闪电和雷鸣通常持续时间较短。\,\n \符号\: \⚡️\\n }\n ]\n}\n, done:true, done_reason:stop, context:[ 151644, 872, 198, //...省略... 73594 ], total_duration:70172634700, load_duration:22311300, prompt_eval_count:19, prompt_eval_duration:151255000, eval_count:495, eval_duration:69997676000
}还有一种比较常用的操作就是大家比较关注的嵌入模型通俗点就是对文本或者图片、视频等信息进行特征提取转换成向量的方式这时候需要使用/api/embed接口,请求格式如下所示这里使用的向量化模型是nomic-embed-text大家可以自行去用ollama pull这个模型
curl http://localhost:11434/api/embed -d { model: nomic-embed-text:latest, input: 我是中国人我爱我的祖国
}嵌入接口返回的数据格式如下所示
{ model:nomic-embed-text:latest, embeddings:[ [ 0.012869273, 0.015905218, -0.13998738, //...省略很多... -0.035138983, -0.03351391 ] ], total_duration:619728100, load_duration:572422600, prompt_eval_count:12
}当然Ollama提供的接口还有很多比如对话、模型管理等待这里我们就不一一介绍了有需要的同学可以自行查阅接口文档地址https://github.com/ollama/ollama/blob/main/docs/api.md
可视化UI
上面我们提到了两种方式访问Ollama服务一种是命令行的方式另一种是接口的方式。这两种虽然方式原始但是并没有界面操作显得直观如果你想通过界面的方式通过Ollama完成对话服务官方Github推荐的也比较多有兴趣的同学可以自行查看文档https://github.com/ollama/ollama?tabreadme-ov-file#web–desktop我选用的是第一个Open WebUI简单的方式是通过Docker直接运行
docker run -d -p 3000:8080 -e OLLAMA_BASE_URLhttps://你的ollama服务ip:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main亦或者可以通过构建源码的方式构建启动按照下面的命令一步一步来 git clone https://github.com/open-webui/open-webui.git cd open-webui/ cp -RPp .env.example .env复制一份.env.example文件重命名为.env。Windows系统的话使用copy .env.example .env npm install npm run build cd ./backend conda create --name open-webui-env python3.11用conda创建一个名为pen-webui-env的虚拟环境 conda activate open-webui-env激活虚拟环境 pip install -r requirements.txt -U安装python依赖 bash start.sh Windows操作系统的话直接启动start_windows
如你所见它是依赖NodeJs和Python的还需要安装Conda • Node.js 20.10 • Python 3.11 • conda我用的是24.5.0
启动成功后在浏览器上输入http://localhost:8080/,注册一个用户名登陆进来之后界面如下所示 可以直接选择模型进行对话类似ChatGPT那种对话风格。
C#整合Ollama
上面我们了解到了Ollama的基本安装和使用明白了它的调用是基于Http接口来完成的。其实我也可以参考接口文档自行封装一套调用但是没必要, 因为有很多现成的SDK可以直接使用。
使用Ollama Sdk
这里使用的C#的SDK就叫0llama它的Github地址是https://github.com/tryAGI/Ollama, 为什么选择它呢其实也很简单因为它支持function call,这方便我们更早的体验新功能。安装它非常简单相信同学们都会
dotnet add package Ollama --version 1.9.0简单对话
简单的对话功能上手也没什么难度都是简单代码
string modelName qwen2:7b;
using var ollama new OllamaApiClient(baseUri:new Uri(http://127.0.0.1:11434/api)); Console.WriteLine(开始对话);
string userInput ;
do
{ Console.WriteLine(User:); userInput Console.ReadLine()!; var enumerable ollama.Completions.GenerateCompletionAsync(modelName, userInput); Console.WriteLine(Agent:); await foreach(var response in enumerable) { Console.Write(${response.Response}); } Console.WriteLine();
} while(!string.Equals(userInput,exit,StringComparison.OrdinalIgnoreCase));
Console.WriteLine(对话结束);模型名称是必须要传递的而且默认的是流式输出,如果想一次返回同样的是设置stream为false。示例使用的是qwen2:7b模型。执行起来之后便可以直接对话如下所示 整体来说国产模型里面qwen2:7b整体的效果还是不错的至少还不是扭曲事实。
多轮对话
如果需要进行分角色的多轮对话要换一个方式使用使用提供的Chat方式如下所示
string modelName glm4:9b;
using var ollama new OllamaApiClient(baseUri:new Uri(http://127.0.0.1:11434/api));
Console.WriteLine(开始对话);
string userInput ;
ListMessage messages [];
do
{ //只取最新的五条消息 messages messages.TakeLast(5).ToList(); Console.WriteLine(User:); userInput Console.ReadLine()!; //加入用户消息 messages.Add(new Message(MessageRole.User, userInput)); var enumerable ollama.Chat.GenerateChatCompletionAsync(modelName, messages, stream:true); Console.WriteLine(Agent:); StringBuilder builder new(); await foreach(var response in enumerable) { string content response.Message.Content; builder.AppendLine(content); Console.Write(content); } //加入机器消息 messages.Add(new Message(MessageRole.Assistant, builder.ToString())); Console.WriteLine(); }while(!string.Equals(userInput,exit,StringComparison.OrdinalIgnoreCase));
Console.WriteLine(对话结束);这次换了另一个国产模型glm4:9b, 多轮对话和完全对话使用的对象不同。 • 完全对话使用的是Completions对象多轮对话使用的是Chat对象。 • 多轮对话需要用ListMessage存储之前的对话记录这里模型才能捕获上下文。
运行起来执行效果如下所示 第一次我问他会c#吗它说了一堆表示会。第二句我让它写一个简单的示例但是我并没有说写c#示例但是它可以通过上面的对话了解到意图所以直接用c#给我写了一个示例。
function call
高版本的Ollama支持function call当然这也要求模型也必须支持如果模型本身不支持那也是没有效果的其中llama3.1支持的比较好美中不足是llama3.1对中文支持的不太好所以我们简单的演示一下这里使用的是llama3.1:8b模型首先需要定义方法这样和模型对话的时候框架会把方法的元信息抽出来发给模型让模型判断调用哪个这里我简单定义了一个计算增删改查的接口并实现这个接口。
//定义一个接口提供元信息
[OllamaTools]
public interface IMathFunctions
{ [Description(Add two numbers)] int Add(int a, int b); [Description(Subtract two numbers)] int Subtract(int a, int b); [Description(Multiply two numbers)] int Multiply(int a, int b); [Description(Divide two numbers)] int Divide(int a, int b);
} //实现上面的接口提供具体的操作方法
public class MathService : IMathFunctions
{ public int Add(int a, int b) a b; public int Subtract(int a, int b) a - b; public int Multiply(int a, int b) a * b; public int Divide(int a, int b) a / b;
}有了上面的接口和实现类之后我们就可以通过Ollama使用它们了使用方式如下
string modelName llama3.1:8b;
using var ollama new OllamaApiClient(baseUri:new Uri(http://127.0.0.1:11434/api));
var chat ollama.Chat( model: modelName, systemMessage:You are a helpful assistant., autoCallTools:true); //给Ollama注册刚才定义的类
var mathService new MathService();
chat.AddToolService(mathService.AsTools(), mathService.AsCalls()); while(true)
{ try { Console.WriteLine(User); var newMessage Console.ReadLine(); var msg await chat.SendAsync(newMessage); Console.WriteLine(Agent msg.Content); } finally { //打印本次对话的所有消息 Console.WriteLine(chat.PrintMessages()); }
}这里需要设置autoCallTools为true才能自动调用方法PrintMessages()方法用来打印本轮会话中所有的消息, 一般自动调用function call的时候会产生多次请求但是我们使用的时候是无感知的因为框架已将帮我自动处理了比如我的提示词是一个数学计算公式(128)*4/2?如下所所示 通过PrintMessages()方法打印的对话消息可知虽然我只提供了一句提示词但是Ollama SDK因为支持自动调用工具llama3.1:8b将提示词算式(128)*4/2)进行了拆分计算步骤如下所示 • 先拆分了括号里的逻辑128并调用Add方法得到结果20 • 然后第二步用上一步得到的结果调用Multiply计算20*4得到80 • 再用上一步的结果调用Divide计算80/2得到结果40 • 最后把Tools调用的步骤及结果一起在通过对话发送给llama3.1模型模型得到最终的输出
如果我们不打印过程日志的话模型只会输出
Assistant:
The correct calculation is:
(128)20
20*480
80/240
Therefore,the answer is:40.嵌入模型
上面我们提到过Ollama不仅可以使用对话模型还可以使用嵌入模型的功能嵌入模型简单的来说就是对文本、图片、语音等利用模型进行特征提起得到向量数据的过程。通过Ollama SDK可以使用Ollama的嵌入功能代码如下所示
string modelName nomic-embed-text:latest;
HttpClient client new HttpClient();
client.BaseAddress new Uri(http://127.0.0.1:11434/api);
client.Timeout TimeSpan.FromSeconds(3000);
using var ollama new OllamaApiClient(client);
var embeddingResp await ollama.Embeddings.GenerateEmbeddingAsync(modelName,c#是一门不错的编程语言);
Console.WriteLine($[{string.Join(,, embeddingResp.Embedding!)}]);得到的就是如下所示的向量信息 向量数据是可以计算相似度的利用余弦夹角的概念可以计算向量的空间距离空间距离越近两个向量的相似度便越高。如果大家了解颜色表RGB的话就比较容易理解举个例子(255, 0, 0)就是纯红色(255, 10, 10)也是红色但是不是纯红色。如果把(255, 0, 0)和(255, 10, 10)映射到一个三维的空间坐标图上它们的距离就很近但是它们和纯蓝色(0, 0, 255)的空间距离就很远因为一个贴近X轴一个贴近Z轴。现在大家锁熟知的向量数据库大概采用的就是类似的原理。也是现在流行的RAG检索增强生成的基础。
比如我把下面两句话嵌入模型得到向量值然后通过计算余弦夹角来比较它们的相似度
var embeddingResp await ollama.Embeddings.GenerateEmbeddingAsync(modelName,c#是一门不错的编程语言);
var embeddingResp2 await ollama.Embeddings.GenerateEmbeddingAsync(modelName,c#是很好的语言);
Console.WriteLine(相似度CosineSimilarity([.. embeddingResp.Embedding!],[.. embeddingResp2!.Embedding])); //计算余弦夹角
public static double CosineSimilarity(double[] vector1, double[] vector2)
{ if(vector1.Length! vector2.Length) throw new ArgumentException(向量长度必须相同); double dotProduct 0.0; double magnitude1 0.0; double magnitude2 0.0; for(int i 0; i vector1.Length; i) { dotProduct vector1[i]* vector2[i]; magnitude1 vector1[i]* vector1[i]; magnitude2 vector2[i]* vector2[i]; } magnitude1 Math.Sqrt(magnitude1); magnitude2 Math.Sqrt(magnitude2); if(magnitude1 0.0|| magnitude2 0.0) return0.0;// 避免除以零 return dotProduct /(magnitude1 * magnitude2);
}上面的得到的相似度结果是
相似度0.9413230998586363因为它们两句话表达的含义差不多所以相似度很高。但是如果我要计算下面的两句话的相似度
var embeddingResp await ollama.Embeddings.GenerateEmbeddingAsync(modelName, c#是一门不错的编程语言);
var embeddingResp2 await ollama.Embeddings.GenerateEmbeddingAsync(modelName, 我喜欢吃芒果和草莓);那么利用余弦值计算出来它们的相似度只有0.59因为这两句话几乎没有任何关联。
相似度0.5948448463206064多模态模型
刚开始的对话模型都比较单一都是简单的文本对话随着不断的升级有些模型已经支持多种格式的输入输出而不仅仅是单一的文本比如支持图片、视频、语音等等这些模型被称为多模态模型。使用Ollama整合llava模型体验一把这里我是用的是llava:13b。我在网上随便找了一张图片存放本地 用这张图片对模型进行提问代码如下所示
HttpClient client new HttpClient();
client.BaseAddress new Uri(http://127.0.0.1:11434/api);
client.Timeout TimeSpan.FromSeconds(3000);
using var ollama new OllamaApiClient(client);
string modelName llava:13b;
string prompt What is in this picture?;
System.Drawing.Image image System.Drawing.Image.FromFile(1120.jpg);
var enumerable ollama.Completions.GenerateCompletionAsync(modelName, prompt, images:[BitmapToBase64(image)], stream:true);
await foreach(var response in enumerable)
{ Console.Write(${response.Response});
} //Image转base64
public static string BitmapToBase64(System.Drawing.Image bitmap)
{ MemoryStream ms1 newMemoryStream(); bitmap.Save(ms1,System.Drawing.Imaging.ImageFormat.Jpeg); byte[] arr1 newbyte[ms1.Length]; ms1.Position0; ms1.Read(arr1,0,(int)ms1.Length); ms1.Close(); returnConvert.ToBase64String(arr1);
}我用提示词让模型描述图片里面的内容然后把这张图片转换成base64编码格式一起发送给模型模型返回的内容如下所示 确实够强大描述的信息很准确措词也相当不错如果让人去描述图片中的内容相信大部分人描述的也没这么好不得不说模型越来越强大了。
使用SemanticKernel
除了整合Ollama SDK以外,你还可以用Semantic Kernel来整合Ollama我们知道默认情况下Semantic Kernel只能使用OpenAI和Azure OpenAI的接口格式但是其他模型接口并不一定和OpenAI接口格式做兼容有时候甚至可以通过one-api这样的服务来适配一下。不过不用担心Ollama兼容了OpenAI接口的格式即使不需要任何的适配服务也可以直接使用我们只需要重新适配一下请求地址即可。
using HttpClient httpClient new HttpClient(new RedirectingHandler());
httpClient.Timeout TimeSpan.FromSeconds(120); var kernelBuilder Kernel.CreateBuilder()
.AddOpenAIChatCompletion( modelId:glm4:9b, apiKey:ollama, httpClient: httpClient);
Kernel kernel kernelBuilder.Build(); var chatCompletionService kernel.GetRequiredServiceIChatCompletionService();
OpenAIPromptExecutionSettings openAIPromptExecutionSettings new()
{ ToolCallBehaviorToolCallBehavior.AutoInvokeKernelFunctions
}; var history newChatHistory();
string? userInput;
do
{ Console.Write(User ); userInput Console.ReadLine(); history.AddUserMessage(userInput!); var result chatCompletionService.GetStreamingChatMessageContentsAsync( history, executionSettings: openAIPromptExecutionSettings, kernel: kernel); string fullMessage ; System.Console.Write(Assistant ); await foreach(var content in result) { System.Console.Write(content.Content); fullMessage content.Content; } System.Console.WriteLine(); history.AddAssistantMessage(fullMessage);
}while(userInput is not null); public class RedirectingHandler : HttpClientHandler
{ protected override TaskHttpResponseMessage SendAsync( HttpRequestMessage request, CancellationToken cancellationToken) { var uriBuilder new UriBuilder(request.RequestUri!){ Schemehttp,Hostlocalhost,Port11434 }; //对话模型 if(request!.RequestUri!.PathAndQuery.Contains(v1/chat/completions)) { uriBuilder.Path/v1/chat/completions; request.RequestUri uriBuilder.Uri; } //嵌入模型 if(request!.RequestUri!.PathAndQuery.Contains(v1/embeddings)) { uriBuilder.Path/v1/embeddings; request.RequestUri uriBuilder.Uri; } return base.SendAsync(request, cancellationToken); }
}这里我们使用的是国产模型glm4:9b,需要注意的是因为这里我们使用的是本地服务所以需要适配一下服务的地址通过编写RedirectingHandler类并用其构造一个HttpClient实例传递给Kernel。细心的同学可能已经发现了这里我转发的Ollama服务的路径也变成了和OpenAI服务一样的路径但是上面我调用Ollama服务用的是/api/chat和/api/embed这种地址的接口。这是因为Ollama为了兼容OpenAI的标准专门开发了一套和OpenAI路径和参数都一样的接口这一点是需要注意的。当然Ollama暂时还没有全部兼容OpenAI接口的全部特征有兴趣的同学可以去看一下https://github.com/ollama/ollama/blob/main/docs/openai.md文档地址了解更详细的内容。
上面的服务运行起来我们同样可以进行对话效果如下所示 同样的你可以通过SemanticKernel使用嵌入模型的功能如下所示
using HttpClient httpClient new HttpClient(new RedirectingHandler());
httpClient.Timeout TimeSpan.FromSeconds(120); var kernelBuilder Kernel.CreateBuilder() .AddOpenAITextEmbeddingGeneration( modelId:nomic-embed-text:latest, apiKey:ollama, httpClient: httpClient);
Kernel kernel kernelBuilder.Build();
var embeddingService kernel.GetRequiredServiceITextEmbeddingGenerationService();
var embeddings await embeddingService.GenerateEmbeddingsAsync([我觉得c#是一门不错的编程语言]);
Console.WriteLine($[{string.Join(,, embeddings[0].ToArray())}]);这里休要注意的是AddOpenAITextEmbeddingGeneration方法是评估方法将来版本有可能会删除的所以默认的用VS使用该方法会有错误提醒可以在csproj的PropertyGroup标签中设置一下NoWarn来忽略这个提醒。
PropertyGroup OutputTypeExe/OutputType TargetFrameworknet8.0/TargetFramework NoWarnSKEXP0010;SKEXP0001/NoWarn
/PropertyGroup总结
本文介绍了如何通过C#结合Ollama实现本地大语言模型的部署与调用重点演示了在C#应用中集成该功能的具体步骤。通过详细的安装指南与代码示例帮助开发者快速上手。• 首先我们介绍了Ollama的安装及基本设置和命令的使用。 • 然后介绍了如何通过Ollama调用大模型,比如使用命令行、Http接口服务、可视乎界面。 • 再次我们我们通过C#使用了Ollama SDK来演示了对话模式、文本嵌入、多模态模型如何使用顺便说了一下相似度计算相关。 • 最后我们展示了通过Semantic Kernel调用Ollama服务因为Ollama对OpenAI的接口数据格式做了兼容虽然还有部分未兼容但是日常使用问题不大。 通过本文希望没有了解过大模型的同学可以入门或者大概了解一下相关的基础毕竟这是近两年或者未来几年都比较火的一个方向。即使我们不能深入的研究他但是我们也得知道它了解它的基本原理与使用。我们为什么要持续学习因为这些东西很多时候确实是可以给我们提供方便。接触它了解它才能真正的知道它可以帮助我解决什么问题。
如何学习大模型
现在社会上大模型越来越普及了已经有很多人都想往这里面扎但是却找不到适合的方法去学习。
作为一名资深码农初入大模型时也吃了很多亏踩了无数坑。现在我想把我的经验和知识分享给你们帮助你们学习AI大模型能够解决你们学习中的困难。
我已将重要的AI大模型资料包括市面上AI大模型各大白皮书、AGI大模型系统学习路线、AI大模型视频教程、实战学习等录播视频免费分享出来需要的小伙伴可以扫取。 一、AGI大模型系统学习路线
很多人学习大模型的时候没有方向东学一点西学一点像只无头苍蝇乱撞我下面分享的这个学习路线希望能够帮助到你们学习AI大模型。 二、AI大模型视频教程 三、AI大模型各大学习书籍 四、AI大模型各大场景实战案例 五、结束语
学习AI大模型是当前科技发展的趋势它不仅能够为我们提供更多的机会和挑战还能够让我们更好地理解和应用人工智能技术。通过学习AI大模型我们可以深入了解深度学习、神经网络等核心概念并将其应用于自然语言处理、计算机视觉、语音识别等领域。同时掌握AI大模型还能够为我们的职业发展增添竞争力成为未来技术领域的领导者。
再者学习AI大模型也能为我们自己创造更多的价值提供更多的岗位以及副业创收让自己的生活更上一层楼。
因此学习AI大模型是一项有前景且值得投入的时间和精力的重要选择。