百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Python连接Redis数据库进行增删改查

off999 2024-11-04 13:16 33 浏览 0 评论

代码如下:

"""Redis数据类型:

1. <set key value>

类型 : String(字符串)

简介: 二进制安全

特性 : 可以包含任何数据,比如jpg图片或者序列化的对象,一个键最大能存储512M

场景: /

2. <hset major_key key value>

类型 : Hash(字典)

简介: 键值对集合,即编程语言中的Map类型

特性 : 适合存储对象,并且可以像数据库中update一个属性一样只修改某一项属性值(Memcached中需要取出整个字符串反序列化成对象修改完再序列化存回去)

场景: 存储、读取、修改用户属性

3. <头部:lpush key value1 value2 ... 末尾:rpush key value1 value2 ...> 可添加一个或多个值

类型 : List(列表)

简介: 链表(双向链表)

特性 : 增删快,提供了操作某一段元素的API

场景: 1.最新消息排行等功能(比如朋友圈的时间线) 2.消息队列

4. <sadd key member1 member2 ...> 可添加一个或多个值

类型 : Set(集合)

简介: 哈希表实现,元素不重复

特性 : 1.添加、删除,查找的复杂度都是O(1) 2.为集合提供了求交集、并集、差集等操作

场景: 1.共同好友 2.利用唯一性,统计访问网站的所有独立ip 3,好用推荐时,根据tag求交集,大于某个阈值就可以推荐

5. <zadd key score1 member1 score2 member2 ...> 可添加一个或多个值

类型 : Sorted Set(有序集合)

简介: 将Set中的元素增加一个权重参数score,元素按score有序排列

特性 : 数据插入集合时,已经进行天然排序

场景: 1.排行榜 2.带权重的消息队列

键值相关命令:

1. keys * 查看当前所有的key

2. exists name 查看数据库是否有name这个key

3. del name 删除key name

4. expire confirm 100 设置confirm这个key100秒过期

5. ttl confirm 获取confirm 这个key的有效时长

6. select 0 选择到0数据库 redis默认的数据库是0~15一共16个数据库

7. move confirm 1 将当前数据库中的key移动到其他的数据库中,这里就是把confire这个key从当前数据库中移动到1中

8. persist confirm 移除confirm这个key的过期时间

9. randomkey 随机返回数据库里面的一个key

10. rename key2 key3 重命名key2 为key3

11. type key2 返回key的数据类型

服务器相关命令:

1. ping PING返回响应是否连接成功

2. echo 在命令行打印一些内容

3. select 0~15 编号的数据库

4. quit 退出客户端

5. dbsize 返回当前数据库中所有key的数量

6. info 返回redis的相关信息

7. config get dir/* 实时传储收到的请求

8. flushdb 删除当前选择数据库中的所有key

9. flushall 删除所有数据库中的数据库

Tips:

打开cmd输入 redis-cli.exe 即可进入redis命令行

"""

# -*- coding:utf-8 -*-

import redis

import pickle

import datetime

__author__ = 'Evan'

class Redis(object):

def __init__(self, host='localhost', port=6379, db=0, password=''):

"""

初始化Redis连接池

:param host: 主机名

:param port: 端口

:param db: 数据库

:param password: 密码

"""

pool = redis.ConnectionPool(

host=host,

port=port,

db=db,

password=password,

max_connections=None # 连接池最大值,默认2**31

)

self.redis = redis.Redis(connection_pool=pool)

def __del__(self):

"""程序结束后,自动关闭连接,释放资源"""

self.redis.connection_pool.disconnect()

def exists(self, name):

"""

检查name是否存在

:param name:

:return:

"""

return self.redis.exists(name)

def delete(self, name):

"""

删除指定的name

:param name:

:return:

"""

return self.redis.delete(name)

def rename(self, old, new):

"""

重命名

:param old:

:param new:

:return:

"""

if self.exists(old):

return self.redis.rename(old, new)

def set_expire_by_second(self, name, second=60 * 60 * 24 * 7):

"""

以秒为单位设置过期时间

:param name:

:param second: 默认7天

:return:

"""

return self.redis.expire(name, time=second)

def remove_expire(self, name):

"""

移除name的过期时间,name将持久保持

:param name:

:return:

"""

return self.redis.persist(name)

def get_expire_by_second(self, name):

"""

以秒为单位返回name的剩余过期时间

:param name:

:return:

"""

return self.redis.ttl(name)

def get_name_type(self, name):

"""

获取name的数据类型

:param name:

:return:

"""

return self.redis.type(name).decode()

def check_name_type(self, name, expect_type='string'):

"""

检查name的数据类型

数据类型对照表:

set -> 'string'

hset -> 'hash'

lpush -> 'list'

sadd -> 'set'

zadd -> 'zset'

:param name:

:param expect_type: string / hash / list / set / zset

:return:

"""

name_type = self.get_name_type(name)

if name_type == expect_type:

return True

else:

return False

def set(self, name, value, do_pickle=True, expire=60 * 60 * 24 * 7):

"""

添加set类型,使用pickle进行持久化存储

:param name:

:param value:

:param do_pickle: 是否使用pickle进行二进制序列化,默认True

:param expire: 单位second,默认7天

:return:

"""

if do_pickle:

self.redis.set(name=name, value=pickle.dumps(value), ex=expire)

else:

self.redis.set(name=name, value=value, ex=expire)

def get_set_value(self, name, do_pickle=True):

"""

获取指定的set value

:param name:

:param do_pickle: 是否使用pickle进行二进制反序列化,默认True

:return:

"""

value = self.redis.get(name=name)

if value:

if do_pickle:

return pickle.loads(value)

else:

return value

else:

return None

def get_set_all(self, do_pickle=True):

"""

获取所有的set value

:param do_pickle: 是否使用pickle进行二进制反序列化,默认True

:return: [{}, {}, {}]

"""

all_data = []

if self.redis.keys():

for key in self.redis.keys(): # 获取所有的key

flag = self.check_name_type(name=key, expect_type='string') # 判断是否为set类型

if not flag:

continue

value = self.get_set_value(name=key, do_pickle=do_pickle)

all_data.append({key.decode(): value})

return all_data

def zadd(self, name, value=[], do_pickle=True, expire=60 * 60 * 24 * 7):

"""

添加有序集合类型,默认score为当前时间戳,使用pickle进行持久化存储

:param name:

:param value: [{}, {}, {}]

:param do_pickle: 是否使用pickle进行二进制序列化,默认True

:param expire: 单位second,默认7天

:return:

"""

assert value, 'value不能为空'

value_dict = {}

for each in value:

score = each.get('timestamp') or datetime.datetime.now().timestamp() # 如果没有timestamp,取当前时间戳为score

if do_pickle:

value_dict.setdefault(pickle.dumps(each), score)

else:

value_dict.setdefault(str(each), score) # 如果不进行序列化,需要将字典转化为字符串作为Key,否则会报错

self.redis.zadd(name=name, mapping=value_dict)

self.set_expire_by_second(name, expire) # 设置expire

def get_zadd_data_by_score(self, name, start_score=None, end_score=None, do_pickle=True):

"""

根据score范围,返回对应的数据,只用于有序集合

:param name:

:param start_score: timestamp时间戳

:param end_score: timestamp时间戳

:param do_pickle: 是否使用pickle进行二进制序列化,默认True

:return:

"""

# 如果start_score为空,默认为前一天的时间戳

start_score = start_score or (datetime.datetime.now() - datetime.timedelta(days=1)).timestamp()

# 如果end_score为空,默认为当前时间的时间戳

end_score = end_score or datetime.datetime.now().timestamp()

data = self.redis.zrangebyscore(name, start_score, end_score)

if do_pickle:

return [pickle.loads(i) for i in data]

else:

return [i for i in data]

def delete_zadd_data_by_score(self, name, start_score, end_score):

"""

根据score范围,删除对应的数据,只用于有序集合

:param name:

:param start_score: timestamp时间戳

:param end_score: timestamp时间戳

:return:

"""

return self.redis.zremrangebyscore(name, start_score, end_score)

def get_zadd_timestamp_range(self, name):

"""

获取指定name对应集合中的score最小值和最大值,只用于有序集合

:param name:

:return: [start_datetime, end_datetime]

"""

status = self.exists(name)

if status != 0:

# 转换为datetime类型

start_datetime = datetime.datetime.fromtimestamp(self.redis.zrange(name,

start=0,

end=0,

desc=False,

withscores=True)[0][1])

end_datetime = datetime.datetime.fromtimestamp(self.redis.zrange(name,

start=0,

end=0,

desc=True,

withscores=True)[0][1])

return [start_datetime, end_datetime]

else:

return []

if __name__ == '__main__':

REDIS = Redis()

# 测试set

REDIS.set(name='name', value='Evan', do_pickle=True, expire=60)

REDIS.set(name='id', value=6, do_pickle=True, expire=60)

print(REDIS.get_set_value('name', do_pickle=True))

print(REDIS.get_set_all())

# 测试有序集合

REDIS.zadd(name='demo', value=[{'name': 'Evan'}, {'id': 6}], do_pickle=True, expire=60)

print(REDIS.get_zadd_data_by_score(name='demo', do_pickle=True))

print(REDIS.get_zadd_timestamp_range(name='demo'))

运行结果:

Evan

[{'name': 'Evan'}, {'id': 6}]

[{'id': 6}, {'name': 'Evan'}]

[datetime.datetime(2021, 1, 16, 19, 18, 57, 153845), datetime.datetime(2021, 1, 16, 19, 18, 57, 153845)]

相关推荐

阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?

TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...

高流量大并发Linux TCP性能调优_linux 高并发网络编程

其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...

性能测试100集(12)性能指标资源使用率

在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...

Linux 服务器常见的性能调优_linux高性能服务端编程

一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...

Nginx性能优化实战:手把手教你提升10倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...

高并发场景下,Spring Cloud Gateway如何抗住百万QPS?

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...

Kubernetes 高并发处理实战(可落地案例 + 源码)

目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...

高并发场景下,Nginx如何扛住千万级请求?

Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

Docker-基础操作_docker基础实战教程二

一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...

你有空吗?跟我一起搭个服务器好不好?

来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...

部署你自己的 SaaS_saas如何部署

部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...

Docker Compose_dockercompose安装

DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...

京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统

前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...

Kubernetes (k8s) 入门学习指南_k8s kubeproxy

Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...

取消回复欢迎 发表评论: