前提条件:请确保你本地已经安装了ollama以及有关本地离线模型。或者已有远程模型环境等。如果没有,请自行部署。如果需要帮助,可以文末获取联系方式咨询。由于部署离线大模型过于简单,在线资料也很多,我就省略这个步骤了。
创建一个项目,添加使用MIT开源协议的一个nuget包 OllamaSharp







var uri = new Uri("http://localhost:11434"); var ollama = new OllamaApiClient(uri); var models = await ollama.ListLocalModels();
foreach (var model in models)
{
Console.WriteLine($"{index++}:{model.Name} {model.Size / 1024 / 1024} MB"); // 输出模型名称和大小
}
int selectIndex = Convert.ToInt32(Console.ReadLine());
ollama.SelectedModel = models.ToArray()[selectIndex].Name; // 选择模型名称
var chat = new Chat(ollama, prompt); await foreach (var answerToken in chat.Send(message)) Console.Write(answerToken);
评论已关闭。