Python 从代理地址下载大数据模型

在本机进进代理后,比如在8280端口,但是python里面用不到,如此设置即可,注意两个proxy中的地址都是http,而没有https。设置后下载huggingface的模型和数据集都会默认走这个代理 import os os.environ['HTTP_PROXY'] = 'http://127

顾文强 Published on 2025-01-20
Git

GIT 进行版本控制

1 Git介绍 Git是一个开源的分布式版本控制系统,用于有效、高速地处理从很小到非常大的项目版本管理‌。它由Linus Torvalds(Linux操作系统的创建者)于2005年开发,最初是为了帮助管理Linux内核开发而作为一种过渡方案来替代BitKeeper‌。 Git允许开发者在本地创建代码

顾文强 Published on 2025-01-20

Ubuntu 安装 Halo

1 安装docker & docker-compose 安装docker 安装docker-compose 2 安装halo 编写docker-compose.yaml version: "3" services: halo: image: registry.fit2cloud.com

顾文强 Published on 2025-01-20

Ubuntu 安装 Gitblit V1.9.3

1 下载Gitblit wget https://github.com/gitblit/gitblit/releases/download/v1.9.3/gitblit-1.9.3.tar.gz 解压 tar -xvf gitblit-1.9.3.tar.gz 2 配置Gitblit

顾文强 Published on 2025-01-20

CUDA Python 编程实例

以下是一些使用Python进行CUDA编程的实例: 1. 使用Numba库的实例 Numba是一个开源的JIT(Just In Time)编译器,它允许用户将Python和NumPy代码转换为可在GPU上执行的CUDA内核。下面是一个简单的向量加法示例: import numpy as np fro

顾文强 Published on 2025-01-20

CUDA C++计算实例

CUDA编程实例可以展示如何在NVIDIA的GPU上利用并行计算能力来加速计算密集型任务。以下是一个简单的CUDA编程实例,该实例实现了两个整型向量相加的操作: #include <cuda_runtime.h> #include <stdio.h> // 定义CUDA核函数,用于计算向量相加 _

顾文强 Published on 2025-01-20

CUDA 介绍

CUDA是NVIDIA推出的一种并行计算平台和编程模型‌。以下是对CUDA的详细介绍: CUDA(Compute Unified Device Architecture)由NVIDIA设计研发,旨在充分利用图形处理器(GPU)的强大并行计算能力,将其应用于传统上由中央处理器(CPU)执行的通用计算任

顾文强 Published on 2025-01-20
GPT

BERT 和 GPT 的区别

‌BERT和GPT的主要区别在于模型基础与架构、训练方式与任务、以及目标任务和使用场景‌。 ‌一、模型基础与架构‌ BERT,全称Bidirectional Encoder Representations from Transformers,是基于Transformer的编码器部分进行堆叠构建的。它

顾文强 Published on 2025-01-20

BERT 介绍

BERT(Bidirectional Encoder Representations from Transformers)是一种为自然语言处理(NLP)领域设计的基于Transformer架构的双向编码器预训练语言模型‌。 BERT由Google AI Language的研究人员在2018年精心打造

顾文强 Published on 2025-01-20

几个常见算法复杂度

以下是一些常见的算法复杂度及其简要说明: ‌O(1) - 常数时间复杂度‌: 算法的执行时间不随输入规模n的增长而增长。 示例:访问数组中的某个元素(通过索引直接访问)。

顾文强 Published on 2025-01-20

Scikit-Learn的简单示例

以下是几个使用Scikit-Learn的简单示例,这些示例涵盖了数据加载、预处理、模型训练和评估等基本步骤。 示例1:鸢尾花分类 鸢尾花数据集是机器学习中常用的一个数据集,用于分类任务。以下是一个使用Scikit-Learn进行鸢尾花分类的简单示例: from sklearn.datasets im

顾文强 Published on 2025-01-19

Scikit-Learn 介绍

Scikit-Learn(简称sklearn)是针对Python编程语言的一个免费软件机器学习库。它提供了各种机器学习算法的实现,包括分类、回归、聚类、降维等,旨在与Python数值科学库NumPy和SciPy联合使用。Scikit-Learn以其简单高效的数据挖掘和数据分析工具而广受好评,是Pyt

顾文强 Published on 2025-01-19

Chroma 向量数据库的使用

Chroma向量数据库的使用‌主要包括安装、配置、数据操作(增删改查)和高级功能等几个方面。以下是一个详细的使用指南: 1. 安装 使用pip进行安装: pip install chromadb 2. 初始化与配置

顾文强 Published on 2025-01-19

Chroma 的下载和安装

Chroma的下载和安装主要通过Python的包管理工具pip来完成‌。以下是详细的步骤: ‌安装Chroma数据库‌: 使用命令pip install chromadb来安装Chroma数据库。‌ 需要注意的是,由于某些依赖(如pytorch)的原因,Chroma可能不支持特定版本的Python,

顾文强 Published on 2025-01-19

Chroma 介绍

‌Chroma是一个开源向量嵌入数据库‌。以下是关于Chroma的详细介绍: ‌一、基本概念‌ Chroma作为一个开源项目,专注于向量嵌入数据的存储与管理。在大模型兴起的背景下,由于大模型的token数限制,开发者倾向于将庞大的知识、新闻、文献等数据通过嵌入算法转变为向量数据,然后存储在Chrom

顾文强 Published on 2025-01-19

Ollama命令大全

Ollama命令大全主要包括以下常用命令‌: ‌启动Ollama服务‌: ollama serve:启动Ollama服务,以便在本地或网络上提供模型推理服务‌12。 ‌模型管理‌: ollama create /path/to/Modelfile:使用Modelfile来创建一个新模型‌

顾文强 Published on 2025-01-19

Ollama介绍

‌Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计‌。它提供了一系列功能,包括模型管理、高效推理、多种接口访问等,旨在简化模型的本地部署、管理和推理工作流。‌ Ollama的主要功能 ‌

顾文强 Published on 2025-01-19

Python 国内源镜像

Python在国内有多个常用的镜像源,这些镜像源可以加速Python包的下载和管理。以下是一些主要的Python国内镜像源: ‌清华大学TUNA镜像源‌: 地址:https://pypi.tuna.tsinghua.edu.cn/simple/ 清华大学TUNA镜像源是国内非常知名的Python镜像

顾文强 Published on 2025-01-18
Previous Next