ai
-
Jieba 分词器介绍
jieba 分词器是一个 Python 中文分词组件,支持精确模式、全模式、搜索引擎模式、paddle模式四种分词模式,支持自定义词典
-
ChatGPT 介绍
ChatGPT(生成型预训练变换模型)是一个自回归语言模型,目的是为了使用深度学习生成人类可以理解的自然语言 -
机器学习
机器学习(Machine Learning)是人工智能(artificial intelligence)或通用人工智能(artificial general intelligence)的一个子领域。 -
Datasets
机器学习数据集,数据集是被标记标签(manual labeling)的数据,数据的类型是多样的,包括:图片、音频、文本等
-
Hugging Face 介绍
Hugging Face是一家人工智能和自然语言处理技术公司,致力于开发和提供最先进的自然语言处理技术和工具。2023-04-09 ai ai,huggingface,nlp -
OpenAI 介绍
OpenAI 介绍
-
AI 使用示例
AI 使用示例
-
AI Prompts 介绍
AI 大模型 Prompts 介绍,prompt 使大模型能够更准确、可靠地执行特定任务
-
Langchain 介绍
LangChain 是一个开源框架,用于构建基于大型语言模型(LLM)的应用程序。
-
Tensorflow 安装
Tensorflow 安装
2021-12-12 ai ai,tensorflow -
open webui: AICHAT 前端
open-webui 是一种可扩展、功能丰富、用户友好的自托管 web UI,支持各种 LLM 运行程序,包括与 Ollama 和 openai 兼容的 api。
-
n8n 原生支持 AI 的工作流平台
n8n 原生支持人工智能功能的工作流程自动化平台,它支持可视化构建与自定义代码、自托管或云、400 多个集成工作节点相结合
-
神经网络介绍
神经网络(Neural Network)是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)结构和功能的数学模型或计算模型。 -
人工智能相关库
人工智能相关库
-
Google Antigravity 使用
Google Antigravity 使用
-
AI开发工具深度对比
截止到2026年1月,AI开发工具领域已经经历了从单纯的
代码补全到AI Native IDE,再到如今Agentic IDE(智能体优先IDE)的巨大变革。当前的AI开发工具格局可以分为四大类:Agentic IDE(智能体优先集成开发环境)、AI-Native IDE(AI原生编辑器)、开源/插件生态、以及底层模型/CLI工具。本文将基于以上分类详细分析和对比总结AI开发工具。 -
Claude Code 使用
Claude Code 使用
-
OpenSpec: AI 编程规范工具
OpenSpec 在目前的开发语境中通常指代 Fission-AI 推出的一款面向 AI 编程助手(如 Cursor、Claude Code、GitHub Copilot)的
规范驱动开发(Spec-Driven Development, SDD)工具。 -
AI 编程 Agents.md 规范介绍
在AI 辅助编程领域,
AGENTS.md正在迅速成为一个新兴的行业标准文件。它的核心理念可以简单概括为:“写给 AI 看的 README”。下面介绍AGENTS.md的作用、使用方法总结以及主流支持该标准的 IDE 列表。 -
VLM 与 VLA:从理解世界到与世界互动
在人工智能的浪潮之巅,视觉语言模型(Vision Language Model, VLM)与视觉语言智能体(Vision Language Agent, VLA)代表了 AI 从感知理解世界,迈向与物理世界进行交互的关键进展。两者紧密相连,但又在核心能力与应用场景上有着明确的区分。
-
LMDeploy
LMDeploy 由 MMDeploy 和 MMRazor 团队联合开发,是涵盖了 LLM 任务的全套轻量化、部署和服务解决方案。
-
LLM 大模型微调方法简介
预训练的大语言模型(LLM)可能无法完全满足特定用户需求,因此需要通过微调来提升其在特定任务中的表现。通过微调,模型能够更精准地适应用户的具体应用场景。本文为您介绍微调 LLM 时的策略选择(SFT/DPO)、微调技术(全参/LoRA/QLoRA)以及超参说明,旨在帮助实现模型性能的最佳优化。
-
SGLang 部署大模型
SGLang 是一个用于大型语言模型(LLMs)和视觉语言模型(VLMs)的快速服务框架。
-
魔搭社区模型下载
本文介绍在 ModelScope 社区下载模型的三种方式:1. 使用命令行工具下载;2. 使用 SDK 下载;3. 通过 Git 下载
2025-09-21 ai ai,model,modelscope,download -
AI LLM 模型显存在线计算工具
AI 模型显存占用计算 (Memory/VRAM Usage)主要分为
推理(Inference)和训练(Training)两种情况 -
LLM 模型显存占用计算公式
理解 LLM 的资源占用主要分为两个方面:1.
显存占用 (Memory Footprint):模型在运行时(推理或训练)需要占用多少内存(通常是 GPU 的 VRAM),这是决定需要多大显存的 GPU 的关键。2.计算量 (Computational Cost):模型进行一次完整的计算需要多少次浮点运算(FLOPs),这决定模型的运行速度。 -
魔搭社区介绍
ModelScope(魔搭社区) 是一个由阿里云推出的开源 AI 模型社区和平台。它的核心目标是降低人工智能的开发和应用门槛,让开发者、研究人员乃至企业都能更轻松地获取、使用、定制和分享各种先进的 AI 模型。
2025-07-12 ai ai,model,huggingface,modelscope -
Ray Runtime:构建分布式应用工具
Ray 是一个开源的统一框架,用于扩展 AI 和 Python 应用程序。它提供了一个简单、通用的 API,用于构建分布式应用程序,这些应用程序可以从单机扩展到整个集群。
-
Gemini CLI:命令行 AI 助手
Google 全新推出的 Gemini CLI(命令行界面)将强大的 Gemini 模型系列直接带入您的终端。它是一个开源的 AI 代理,旨在让开发者和技术爱好者能够以自然、高效的方式与人工智能互动,从而加速从编码、调试到内容创作和工作流自动化的各种任务。
-
谷歌 A2A 协议:开启 AI 智能体协作新时代
谷歌发布的A2A(Agent-to-Agent)协议是一项开放标准,旨在让不同平台、不同开发者构建的 AI 智能体(Agent)能够相互发现、安全通信和协同工作。该协议的推出打破了 AI 生态中的
孤岛效应,为构建功能更强大、更复杂的集成式 AI 系统铺平了道路。 -
vLLM 介绍与使用
vLLM 是一个用于大型语言模型 (LLM) 推理加速的开源库,它以其卓越的性能和易用性而闻名。vLLM 的核心优势在于其创新的PagedAttention算法,该算法有效解决了传统注意力机制在处理长序列时内存碎片化的问题,从而显著提高了吞吐量和降低了延迟。
2025-05-04 ai ai,model,LLM,vLLM,PagedAttention,DynamicBatching+2 -
模型在线服务和离线推理实现
模型在线服务和离线推理实现
-
Unsloth 介绍
LLM 的微调与强化学习。 使用更少的 70% VRAM,将 OpenAI gpt-oss、DeepSeek-R1、Qwen3、Gemma 3、TTS 的训练速度提高 2 倍。
-
阿里云 BladeLLM 推理引擎
BladeLLM 是一款专为大语言模型(LLM)优化的推理引擎,旨在提供高性能的模型部署服务。面对 LLM 领域不断涌现的新机遇与挑战,BladeLLM 通过其先进的技术架构、友好的用户体验和卓越的性能表现,成为企业用户部署和推理 LLM 模型的理想选择。
-
PyTorch 卷积神经网络示例
本文详细介绍如何基于 PyTorch CPU 构建一个卷积神经网络 (CNN) 来对 CIFAR-10 图片进行分类。
-
Huggingface cli 命令行工具使用
HuggingFace_Hub Python 软件包带有一个名为
huggingface-cli的内置 CLI,支持用于通过命令行与 Hugging Face Hub (Hugging Face 模型和数据集的中心仓库) 进行交互2025-05-02 ai ai,huggingface -
GGUF 大模型文件格式及 LLM 模型量化类型介绍
GGUF(GPT-Generated Unified Format)是一种二进制格式文件的规范,原始的大模型预训练结果经过转换后变成 GGUF 格式可以更快地被载入使用,并消耗更低的资源 -
llama.cpp 介绍
使用 C/C++ 的 LLM 推理
-
MCP 模型上下文协议介绍
MCP(Model Context Protocol)由 Anthropic 推出的一种全新开放标准,旨在为 AI 助手提供与数据源之间的安全连接能力 -
Rerank 模型介绍
Rerank(重排序)模型是自然语言处理(NLP)和搜索领域中的一种技术,主要用于对初步检索的结果进行优化排序,以提高最终输出的相关性或准确性。它通常作为
两阶段流程中的第二阶段,与第一阶段的快速但粗糙的检索模型(如基于关键词或向量相似度的模型)配合使用。 -
Moderation 模型介绍
Moderation 模型(内容审核模型)是人工智能领域中的一种工具,主要用于自动检测和过滤用户生成内容(UGC)中的不当信息,例如暴力、仇恨言论、色情内容、垃圾信息、虚假信息等。它通过机器学习(尤其是自然语言处理、计算机视觉等技术)帮助平台高效管理内容,确保符合法律法规和社区规范。2025-02-01 ai ai,model,moderation -
模型量化介绍
模型量化(
Model Quantization)是一种通过降低神经网络模型中参数和激活值的数值精度(如从 32 位浮点数转换为 8 位整数),以减小模型体积、提升计算效率并降低功耗的技术。它是深度学习模型压缩和优化的核心方法之一,尤其适用于在资源受限的设备(如手机、嵌入式设备)上部署模型。2025-02-01 ai ai,model,quantization -
embedding model 介绍
模型
嵌入(Embedding)的工作原理是将文本、图像和视频转换为称为向量(Vectors)的浮点数数组,这种向量(称为嵌入向量或Embedding)能够捕捉数据的语义或特征信息,使计算机更容易处理和分析复杂的关系。 -
MoE 混合专家模型介绍
MoE 模型(Mixture of Experts,混合专家模型)是一种机器学习模型的架构设计,旨在通过组合多个专家(子模型)来解决复杂任务。其核心思想是让不同的专家专注于处理输入数据的不同部分或不同模式,最终通过动态权重(由门控网络控制)将各专家的输出融合,形成最终的预测结果。 -
LLM 大模型介绍
大规模语言模型(Large Language Model,LLM)是一种基于人工智能技术的模型,是由具有大量参数(通常数十亿个权重或更多)的人工神经网络组成的一类语言模型,使用自监督学习或半监督学习对大量未标记文本进行训练。大语言模型在 2018 年左右出现,并在各种任务中表现出色。 -
ollam 提供兼容 OpenAI 格式的API
Ollama 提供与 OpenAI API 部分内容的实验兼容性,以帮助将现有应用程序连接到 Ollama。
-
deepseek 相关模型介绍
deepseek 是中国的一家人工智能与大型语言模型公司
2025-01-29 ai ai,models,deepseek,deepseek-r1,deepseek-v3 -
ollama Modelfile 使用
Modelfile是与 Ollama 创建和共享模型的文件,功能类似于 docker 制作镜像的Dockerfile。 -
ollama API 使用
ollama REST API 使用介绍,ollama 提供 ollama 格式的 API 和 openai 格式的 API,本文介绍 ollama 格式的 API
-
Continue 开源人工智能代码助手使用
Continue 是 VS Code 和 JetBrains 内领先的开源人工智能代码助手。
-
cursor: AI代码编辑器
Cursor 使用强大的人工智能来编写、编辑代码
-
Cline: vscode AI 智能编程插件介绍
cline(原名:Claude Dev)一个可在 Vscode 中使用命令行(CLI)和编辑器(Editor)的人工智能助手,名称来自CLIaNdEditor 的缩写 -
AI 智能体(agent)介绍
artificial intelligence (AI) agent是无需人工干预即可执行特定任务的自主(autonomous)智能系统。 -
ollama 本地运行大型语言模型
Ollama 是一个开源的深度学习框架,专为本地机器上便捷部署和运行大型语言模型(LLM)而设计,它提供了一套完整的深度学习工具链,包括数据预处理、模型构建、训练、评估和部署等功能。
-
NLTK 工具包介绍
NLTK 是一款非常实用的文本处理工具,主要用于处理英文数据
-
Transformers 介绍
transformers 是为 PyTorch,TensorFlow 和 JAX 打造的先进的机器学习工具
2023-04-09 ai ai,transformers -
AI 人工智能介绍
人工智能(artificial intelligence,AI)指由人制造出来的机器所表现出来的智能。通常人工智能是指通过计算机系统使用数学和逻辑来模拟人类用于学习新信息并进行决策的推理过程。 -
AI 常见的模型介绍
AI 常见的模型介绍
-
Kite代码自动化补全工具
Kite 代码自动化补全工具
2020-03-01 ai ai,kite,autocompletion