有趣的地方

有趣的地方

AI大模型探索之路-实战篇6: Function Calling技术调研之详细流程剖析

目录 系列篇章💥 一、前言 二、Function Calling详细流程剖析 1、创建OpenAI客户端 2、定义函数 3、创建数据参数对象 4、对象转化 5、函数调用测试 6、定义工具函数 7、发送OpenAI 对话请求测试 8、指定工具函数进行调用 9、存储返回的结果信息 10、查看函数名称和参数 11、调用工具函数 12、将第一次返回的结果合并到消息列表 13、将functiona的信息合并到消息列表 14、第二次OpenAI API调用 三、Function Calling完整

用好 AI 编程,运维早下班:Baidu Comate 智能代码助手下的 Linux 运维指南

运维工程师番外篇 众所周知,今天是520,谐音也就是我爱你的意思。每年的5月20日,无数的情侣们会借此机会表达爱意,送上深情的祝福,小张想要早点下班去和女朋友去约会。但是作为一名运维工程师,小张需要负责监控、维护、优化以及故障排查等多方面工作,并且时刻待命。 运维工程师的生活总是充满了不可预知的“惊喜”,尤其是在下班前遇到故障,这种情况简直可以编入“墨菲定律”豪华典藏版。面对这样的“幸运时刻”,小张快下班前,系统又出问题了。。。。(每一个即将下班的瞬间,都是对技术与意志的终极考验) 为

AI大模型探索之路-基础篇5:GLM-4解锁国产大模型的全能智慧与创新应用

目录 前言 一、GLM4大模型总体概述 二、GLM4和GPT4功能对比 三、GLM4和GPT4性能对比 1、基础能力(英文) 2、指令跟随能力 3、对齐能力 4、长文本能力 5、多模态-文生图 四、GLM-4 ALL Tools 1、文生图 2、代码解释器 3、网页浏览 4、Function Call 5、多工具自动调用 五、开发者平台对比 六、大模型生态对比 七、开放平台注册使用 1、账号注册 2、生成API KEY 3、额度查看 4、知识库 5、应用中心 6、体验中心 7、知

AI大模型探索之路-训练篇1:大语言模型微调基础认知

文章目录 前言 一、微调技术概述 二、微调的必要性 三、大模型的微调方法 四、微调过程中的技术细节 五、微调后的模型评估与应用 总结 前言 在人工智能的广阔研究领域内,大型预训练语言模型(Large Language Models, LLMs)已经成为推动技术革新的关键因素。这些模型通过在大规模数据集上的预训练过程获得了强大的语言理解和生成能力,使其能够在多种自然语言处理任务中表现出色。然而,由于预训练过程所产生的模型通常具有泛化特性,它们往往无法直接适配到特定的应用场景

AI大模型探索之路-训练篇25:ChatGLM3微调实战-基于LLaMA-Factory微调改造企业级知识库

目录 系列篇章💥 前言 一、概述 二、知识库核心架构回顾(RAG) 1、知识数据向量化 2、知识数据检索返回 三、技术选型 1、模型选择ChatGLM3-6B 2、Embedding模型选择 四、改造后的技术选型 五、服务器资源准备 六、私有模型下载测试 1、下载ChatGLM3工程 2、安装依赖 3、模型测试 七、微调工具LLaMA-Factory 1、LLaMA-Factory简介 2、LLaMA-Factory下载安装 1)下载工程 2)创建单独python环境 3)

扎心灵魂小拷问:有了AI编写代码之后,软件工程师会被AI取代吗?——什么是AI代码生成|AI编写代码的未来|AI编写代码是否可能|生成式AI会取代软件工程师吗|如果AI写出可靠的代码会怎样

Jump to 你喜欢的部分😉 什么是AI代码生成? AI编写代码的未来 AI编写代码是否可能? 生成式AI会取代软件工程师吗? AI将改进 AI将成为编码伙伴 但程序员仍然很重要 如果AI写出可靠的代码会怎样? 如何在今天提高代码质量 软件开发者们有很多让他们焦虑的事情。他们最担心的不再是如何用他们最喜欢的编程语言(C、C++、Erlang、Java等)表达最新的算法。相反,这种担忧正逐渐被人工智能(AI)所取代。 在这里,我们将探讨AI编写代码的过程,并回答这

手撸私有AI大模型——给Ollama做个WebUI就叫ChatBaby

搭建好了Ollama,用命令行就可以聊天了 ollama run qwen:18b >>> Send a message (/? for help) ollama如何安装使用请看之前的文章手撸私有AI大模型——ollama本地部署私有大模型-CSDN博客 ----------------  以下是本文的内容  ---------------- 目录 1.创建ChatBaby 虚拟环境 2 安装ollama python包 2.1 调用ollama的p

AI大模型探索之路-训练篇23:ChatGLM3微调实战-基于P-Tuning V2技术的实践指南

目录 系列篇章💥 前言 一、服务器资源准备 二、下载ChatGLM3工程 1、下载工程 2、安装相关依赖 1)使用conda创建微调的虚拟环境 2)安装ChatGLM3依赖 3)安装微调依赖 三、下载ChatGLM3模型 1、安装git-lfs 2、执行:git lfs install 3、下载模型(模型权重相关文件) 4、检查权重文件 四、下载数据集 1、数据集下载 2、数据格式转化 3、数据格式检查 五、微调脚本说明 1、脚本说明(finetune_demo) 2、配

AI模型:windows本地运行下载安装ollama运行llama3、llama2、Google CodeGemma、gemma等可离线运行数据模型【自留记录】

AI模型:windows本地运行下载安装ollama运行llama3、llama2、Google CodeGemma、gemma等可离线运行数据模型【自留记录】 CodeGemma 没法直接运行,需要中间软件。下载安装ollama后,使用ollama运行CodeGemma等AI模型。 类似 前端本地需要安装 node.js 才可能跑vue、react项目 1、下载 ollama: 官网下载:https://ollama.com/download,很慢,原因不解释。 阿里云盘下载:

[vue2/vue3] -- 深入剖析v-model的原理、父子组件双向绑定的多种写法

经典面试题:请阐述一下 v-model 的原理 经典面试题:请说一下vue2与vue3在使用 v-model 时的异同点 经典面试题:请列举 vue2/vue3 的父子组件的数据双向绑定的多种写法  本文即可将上述三个面试题阐述清楚,并提供具体案例来让小伙伴们加深理解、彻底掌握!本文较长,小伙伴们可以先收藏+关注,抽空学习哦~💕 💟 上一篇文章 Vue2中父子组件互相传值和方法调用(热榜前十) 📝 系列专栏 vue从基础到起飞   v-model 既可
<< 1 2 3 4 5 6 7 8 9 10 > >>

Powered By Z-BlogPHP 1.7.3

© 2018-2020 有趣的地方 粤ICP备18140861号-1 网站地图