07.Django学习之model进阶
一 queryset
可切片
使用python 的切片语法来限制查询集
记录的数目 。它等同于sql 的limit
和offset
子句。
>>> entry.objects.all()[:5] # (limit 5) >>> entry.objects.all()[5:10] # (offset 5 limit 5)
不支持负的索引(例如entry.objects.all()[-1]
)。通常,查询集
的切片返回一个新的查询集
—— 它不会执行查询。
可迭代
articlelist=models.article.objects.all() for article in articlelist: print(article.title)
惰性查询
查询集
是惰性执行的 —— 创建查询集
不会带来任何数据库的访问。你可以将过滤器保持一整天,直到查询集
需要求值时,django 才会真正运行这个查询。(关于惰性是不是在迭代器的地方听过呀)
queryresult=models.article.objects.all() # not hits database,通过看到的打印的翻译出来的sql语句记录,你会发现单纯的这句话并没有sql语句打印 print(queryresult) # hits database for article in queryresult: print(article.title) # hits database if判断的时候也会执行,if queryresult:pass
一般来说,只有在“请求”查询集
的结果时才会到数据库中去获取它们。当你确实需要结果时,查询集
通过访问数据库来求值。 关于求值发生的准确时间,参见。
缓存机制
每个查询集
都包含一个缓存来最小化对数据库的访问。理解它是如何工作的将让你编写最高效的代码。叫做queryset缓存空间
在一个新创建的查询集
中,缓存为空。首次对查询集
进行求值 —— 同时发生数据库查询 ——django 将保存查询的结果到查询集(非简单查询的查询结果,简单查询往下看。)
的缓存中并返回明确请求的结果(例如,如果正在迭代查询集
,则返回下一个结果)。接下来对该查询集
的求值将重用缓存的结果。
请牢记这个缓存行为,因为对查询集
使用不当的话,它会坑你的。例如,下面的语句创建两个查询集
,对它们求值,然后扔掉它们:
print([a.title for a in models.article.objects.all()]) print([a.create_time for a in models.article.objects.all()])
这意味着相同的数据库查询将执行两次,显然倍增了你的数据库负载。同时,还有可能两个结果列表并不包含相同的数据库记录,因为在两次请求期间有可能有article被添加进来或删除掉。为了避免这个问题,只需保存查询集
并重新使用它:
queryresult=models.article.objects.all() print([a.title for a in queryresult]) print([a.create_time for a in queryresult])
何时查询集不会被缓存?
查询集不会永远缓存它们的结果。当只对查询集的部分进行求值时会检查缓存, 如果这个部分不在缓存中,那么接下来查询返回的记录都将不会被缓存。所以,这意味着使用切片或索引来限制查询集将不会填充缓存。
例如,重复获取查询集对象中一个特定的索引将每次都查询数据库:
>>> queryset = entry.objects.all() >>> print queryset[5] # queries the database >>> print queryset[5] # queries the database again
然而,如果已经对全部查询集求值过,则将检查缓存:
>>> queryset = entry.objects.all() >>> [entry for entry in queryset] # queries the database >>> print queryset[5] # uses cache >>> print queryset[5] # uses cache
下面是一些其它例子,它们会使得全部的查询集被求值并填充到缓存中:
>>> [entry for entry in queryset] >>> bool(queryset) >>> entry in queryset >>> list(queryset)
注意:简单地打印查询集不会填充缓存。
queryresult=models.article.objects.all() print(queryresult) # hits database print(queryresult) # hits database
exists()与iterator()方法
exists:
简单的使用if语句进行判断也会完全执行整个queryset并且把数据放入cache,虽然你并不需要这些 数据!为了避免这个,可以用exists()方法来检查是否有数据:
if queryresult.exists(): #select (1) as "a" from "blog_article" limit 1; args=() print("exists...")
iterator:
当queryset非常巨大时,cache会成为问题。
处理成千上万的记录时,将它们一次装入内存是很浪费的。更糟糕的是,巨大的queryset可能会锁住系统 进程,让你的程序濒临崩溃。要避免在遍历数据的同时产生queryset cache,可以使用iterator()方法 来获取数据,处理完数据就将其丢弃。
objs = book.objects.all().iterator() --- objs变成了一个生成器,生成器也是迭代器,但是生成器有个特点,就是取完值就不能再取了 # iterator()可以一次只从数据库获取少量数据,这样可以节省内存 for obj in objs: print(obj.title) #but,再次遍历没有打印,因为迭代器已经在上一次遍历(next)到最后一次了,没得遍历了 for obj in objs: print(obj.title)
当然,使用iterator()方法来防止生成cache,意味着遍历同一个queryset时会重复执行查询。所以使 #用iterator()的时候要当心,确保你的代码在操作一个大的queryset时没有重复执行查询。
总结:
queryset的cache是用于减少程序对数据库的查询,在通常的使用下会保证只有在需要的时候才会查询数据库。 使用exists()和iterator()方法可以优化程序对内存的使用。不过,由于它们并不会生成queryset cache,可能 会造成额外的数据库查询。
二 中介模型
处理类似搭配 pizza 和 topping 这样简单的多对多关系时,使用标准的manytomanyfield
就可以了。但是,有时你可能需要关联数据到两个模型之间的关系上。
例如,有这样一个应用,它记录音乐家所属的音乐小组。我们可以用一个manytomanyfield
表示小组和成员之间的多对多关系。但是,有时你可能想知道更多成员关系的细节,比如成员是何时加入小组的。
对于这些情况,django 允许你指定一个中介模型来定义多对多关系。 你可以将其他字段放在中介模型里面。源模型的manytomanyfield
字段将使用through
参数指向中介模型。对于上面的音乐小组的例子,代码如下:
from django.db import models class person(models.model): name = models.charfield(max_length=128) def __str__(self): # __unicode__ on python 2 return self.name class group(models.model): name = models.charfield(max_length=128) members = models.manytomanyfield(person, through='membership') def __str__(self): # __unicode__ on python 2 return self.name class membership(models.model): person = models.foreignkey(person) group = models.foreignkey(group) date_joined = models.datefield() invite_reason = models.charfield(max_length=64)
既然你已经设置好manytomanyfield
来使用中介模型(在这个例子中就是membership
),接下来你要开始创建多对多关系。你要做的就是创建中介模型的实例:
>>> ringo = person.objects.create(name="ringo starr") >>> paul = person.objects.create(name="paul mccartney") >>> beatles = group.objects.create(name="the beatles") >>> m1 = membership(person=ringo, group=beatles, ... date_joined=date(1962, 8, 16), ... invite_reason="needed a new drummer.") >>> m1.save() >>> beatles.members.all() [<person: ringo starr>] >>> ringo.group_set.all() [<group: the beatles>] >>> m2 = membership.objects.create(person=paul, group=beatles, ... date_joined=date(1960, 8, 1), ... invite_reason="wanted to form a band.") >>> beatles.members.all() [<person: ringo starr>, <person: paul mccartney>]
与普通的多对多字段不同,你不能使用add
、 create
和赋值语句(比如,beatles.members = [...]
)来创建关系:
# this will not work >>> beatles.members.add(john) # neither will this >>> beatles.members.create(name="george harrison") # and neither will this >>> beatles.members = [john, paul, ringo, george]
为什么不能这样做? 这是因为你不能只创建 person
和 group
之间的关联关系,你还要指定 membership
模型中所需要的所有信息;而简单的add
、create
和赋值语句是做不到这一点的。所以它们不能在使用中介模型的多对多关系中使用。此时,唯一的办法就是创建中介模型的实例。
remove()
方法被禁用也是出于同样的原因。但是clear()
方法却是可用的。它可以清空某个实例所有的多对多关系:
>>> # beatles have broken up >>> beatles.members.clear() >>> # note that this deletes the intermediate model instances >>> membership.objects.all() []
三 查询优化
表数据
class userinfo(abstractuser): """ 用户信息 """ nid = models.bigautofield(primary_key=true) nickname = models.charfield(verbose_name='昵称', max_length=32) telephone = models.charfield(max_length=11, blank=true, null=true, unique=true, verbose_name='手机号码') avatar = models.filefield(verbose_name='头像',upload_to = 'avatar/',default="/avatar/default.png") create_time = models.datetimefield(verbose_name='创建时间', auto_now_add=true) fans = models.manytomanyfield(verbose_name='粉丝们', to='userinfo', through='userfans', related_name='f', through_fields=('user', 'follower')) def __str__(self): return self.username class userfans(models.model): """ 互粉关系表 """ nid = models.autofield(primary_key=true) user = models.foreignkey(verbose_name='博主', to='userinfo', to_field='nid', related_name='users') follower = models.foreignkey(verbose_name='粉丝', to='userinfo', to_field='nid', related_name='followers') class blog(models.model): """ 博客信息 """ nid = models.bigautofield(primary_key=true) title = models.charfield(verbose_name='个人博客标题', max_length=64) site = models.charfield(verbose_name='个人博客后缀', max_length=32, unique=true) theme = models.charfield(verbose_name='博客主题', max_length=32) user = models.onetoonefield(to='userinfo', to_field='nid') def __str__(self): return self.title class category(models.model): """ 博主个人文章分类表 """ nid = models.autofield(primary_key=true) title = models.charfield(verbose_name='分类标题', max_length=32) blog = models.foreignkey(verbose_name='所属博客', to='blog', to_field='nid') class article(models.model): nid = models.bigautofield(primary_key=true) title = models.charfield(max_length=50, verbose_name='文章标题') desc = models.charfield(max_length=255, verbose_name='文章描述') read_count = models.integerfield(default=0) comment_count= models.integerfield(default=0) up_count = models.integerfield(default=0) down_count = models.integerfield(default=0) category = models.foreignkey(verbose_name='文章类型', to='category', to_field='nid', null=true) create_time = models.datefield(verbose_name='创建时间') blog = models.foreignkey(verbose_name='所属博客', to='blog', to_field='nid') tags = models.manytomanyfield( to="tag", through='article2tag', through_fields=('article', 'tag'), ) class articledetail(models.model): """ 文章详细表 """ nid = models.autofield(primary_key=true) content = models.textfield(verbose_name='文章内容', ) article = models.onetoonefield(verbose_name='所属文章', to='article', to_field='nid') class comment(models.model): """ 评论表 """ nid = models.bigautofield(primary_key=true) article = models.foreignkey(verbose_name='评论文章', to='article', to_field='nid') content = models.charfield(verbose_name='评论内容', max_length=255) create_time = models.datetimefield(verbose_name='创建时间', auto_now_add=true) parent_comment = models.foreignkey('self', blank=true, null=true, verbose_name='父级评论') user = models.foreignkey(verbose_name='评论者', to='userinfo', to_field='nid') up_count = models.integerfield(default=0) def __str__(self): return self.content class articleupdown(models.model): """ 点赞表 """ nid = models.autofield(primary_key=true) user = models.foreignkey('userinfo', null=true) article = models.foreignkey("article", null=true) models.booleanfield(verbose_name='是否赞') class commentup(models.model): """ 点赞表 """ nid = models.autofield(primary_key=true) user = models.foreignkey('userinfo', null=true) comment = models.foreignkey("comment", null=true) class tag(models.model): nid = models.autofield(primary_key=true) title = models.charfield(verbose_name='标签名称', max_length=32) blog = models.foreignkey(verbose_name='所属博客', to='blog', to_field='nid') class article2tag(models.model): nid = models.autofield(primary_key=true) article = models.foreignkey(verbose_name='文章', to="article", to_field='nid') tag = models.foreignkey(verbose_name='标签', to="tag", to_field='nid')
select_related
简单使用
对于一对一字段(onetoonefield)和外键字段(foreignkey),可以使用select_related 来对queryset进行优化。
select_related 返回一个queryset
,当执行它的查询时它沿着外键关系查询关联的对象的数据。它会生成一个复杂的查询并引起性能的损耗,但是在以后使用外键关系时将不需要数据库查询。
简单说,在对queryset使用select_related()函数后,django会获取相应外键对应的对象,从而在之后需要的时候不必再查询数据库了。
下面的例子解释了普通查询和select_related()
查询的区别。
查询id=2的文章的分类名称,下面是一个标准的查询:
# hits the database. article=models.article.objects.get(nid=2) # hits the database again to get the related blog object. print(article.category.title)
''' select "blog_article"."nid", "blog_article"."title", "blog_article"."desc", "blog_article"."read_count", "blog_article"."comment_count", "blog_article"."up_count", "blog_article"."down_count", "blog_article"."category_id", "blog_article"."create_time", "blog_article"."blog_id", "blog_article"."article_type_id" from "blog_article" where "blog_article"."nid" = 2; args=(2,) select "blog_category"."nid", "blog_category"."title", "blog_category"."blog_id" from "blog_category" where "blog_category"."nid" = 4; args=(4,) '''
如果我们使用select_related()函数:
articlelist=models.article.objects.select_related("category").all() for article_obj in articlelist: # doesn't hit the database, because article_obj.category # has been prepopulated in the previous query. print(article_obj.category.title)
select "blog_article"."nid", "blog_article"."title", "blog_article"."desc", "blog_article"."read_count", "blog_article"."comment_count", "blog_article"."up_count", "blog_article"."down_count", "blog_article"."category_id", "blog_article"."create_time", "blog_article"."blog_id", "blog_article"."article_type_id", "blog_category"."nid", "blog_category"."title", "blog_category"."blog_id" from "blog_article" left outer join "blog_category" on ("blog_article"."category_id" = "blog_category"."nid");
多外键查询
这是针对category的外键查询,如果是另外一个外键呢?让我们一起看下:
article=models.article.objects.select_related("category").get(nid=1) print(article.articledetail)
观察logging结果,发现依然需要查询两次,所以需要改为:
article=models.article.objects.select_related("category","articledetail").get(nid=1) print(article.articledetail)
或者:
article=models.article.objects .select_related("category") .select_related("articledetail") .get(nid=1) # django 1.7 支持链式操作 print(article.articledetail)
select "blog_article"."nid", "blog_article"."title", ...... "blog_category"."nid", "blog_category"."title", "blog_category"."blog_id", "blog_articledetail"."nid", "blog_articledetail"."content", "blog_articledetail"."article_id" from "blog_article" left outer join "blog_category" on ("blog_article"."category_id" = "blog_category"."nid") left outer join "blog_articledetail" on ("blog_article"."nid" = "blog_articledetail"."article_id") where "blog_article"."nid" = 1; args=(1,)
深层查询
# 查询id=1的文章的用户姓名 article=models.article.objects.select_related("blog").get(nid=1) print(article.blog.user.username)
依然需要查询两次:
select "blog_article"."nid", "blog_article"."title", ...... "blog_blog"."nid", "blog_blog"."title", from "blog_article" inner join "blog_blog" on ("blog_article"."blog_id" = "blog_blog"."nid") where "blog_article"."nid" = 1; select "blog_userinfo"."password", "blog_userinfo"."last_login", ...... from "blog_userinfo" where "blog_userinfo"."nid" = 1;
这是因为第一次查询没有query到userinfo表,所以,修改如下:
article=models.article.objects.select_related("blog__user").get(nid=1) print(article.blog.user.username)
select "blog_article"."nid", "blog_article"."title", ...... "blog_blog"."nid", "blog_blog"."title", ...... "blog_userinfo"."password", "blog_userinfo"."last_login", ...... from "blog_article" inner join "blog_blog" on ("blog_article"."blog_id" = "blog_blog"."nid") inner join "blog_userinfo" on ("blog_blog"."user_id" = "blog_userinfo"."nid") where "blog_article"."nid" = 1;
总结
- select_related主要针一对一和多对一关系进行优化。
- select_related使用sql的join语句进行优化,通过减少sql查询的次数来进行优化、提高性能。
- 可以通过可变长参数指定需要select_related的字段名。也可以通过使用双下划线“__”连接字段名来实现指定的递归查询。
- 没有指定的字段不会缓存,没有指定的深度不会缓存,如果要访问的话django会再次进行sql查询。
- 也可以通过depth参数指定递归的深度,django会自动缓存指定深度内所有的字段。如果要访问指定深度外的字段,django会再次进行sql查询。
- 也接受无参数的调用,django会尽可能深的递归查询所有的字段。但注意有django递归的限制和性能的浪费。
- django >= 1.7,链式调用的select_related相当于使用可变长参数。django < 1.7,链式调用会导致前边的select_related失效,只保留最后一个。
prefetch_related()
对于多对多字段(manytomanyfield)和一对多字段,可以使用prefetch_related()来进行优化。
prefetch_related()和select_related()的设计目的很相似,都是为了减少sql查询的数量,但是实现的方式不一样。后者是通过join语句,在sql查询内解决问题。但是对于多对多关系,使用sql语句解决就显得有些不太明智,因为join得到的表将会很长,会导致sql语句运行时间的增加和内存占用的增加。若有n个对象,每个对象的多对多字段对应mi条,就会生成σ(n)mi 行的结果表。
prefetch_related()的解决方法是,分别查询每个表,然后用python处理他们之间的关系。
# 查询所有文章关联的所有标签 article_obj=models.article.objects.all() for i in article_obj: print(i.tags.all()) #4篇文章: hits database 5 改为prefetch_related: # 查询所有文章关联的所有标签 article_obj=models.article.objects.prefetch_related("tags").all() for i in article_obj: print(i.tags.all()) #4篇文章: hits database 2 select "blog_article"."nid", "blog_article"."title", ...... from "blog_article"; select ("blog_article2tag"."article_id") as "_prefetch_related_val_article_id", "blog_tag"."nid", "blog_tag"."title", "blog_tag"."blog_id" from "blog_tag" inner join "blog_article2tag" on ("blog_tag"."nid" = "blog_article2tag"."tag_id") where "blog_article2tag"."article_id" in (1, 2, 3, 4);
四 extra
extra(select=none, where=none, params=none,
tables=none, order_by=none, select_params=none)
有些情况下,django的查询语法难以简单的表达复杂的 where
子句,对于这种情况, django 提供了 extra()
queryset
修改机制 — 它能在 queryset
生成的sql从句中注入新子句
extra可以指定一个或多个 参数
,例如 select
, where
or tables
. 这些参数都不是必须的,但是你至少要使用一个!要注意这些额外的方式对不同的数据库引擎可能存在移植性问题.(因为你在显式的书写sql语句),除非万不得已,尽量避免这样做
参数之select
the select
参数可以让你在 select
从句中添加其他字段信息,它应该是一个字典,存放着属性名到 sql 从句的映射。
queryresult=models.article .objects.extra(select={'is_recent': "create_time > '2017-09-05'"})
结果集中每个 entry 对象都有一个额外的属性is_recent, 它是一个布尔值,表示 article对象的create_time 是否晚于2017-09-05.
练习:
# in sqlite: article_obj=models.article.objects .filter(nid=1) .extra(select={"standard_time":"strftime('%%y-%%m-%%d',create_time)"}) .values("standard_time","nid","title") print(article_obj) # <queryset [{'title': 'mongodb 入门教程', 'standard_time': '2017-09-03', 'nid': 1}]>
参数之where
/ tables
您可以使用where
定义显式sql where
子句 - 也许执行非显式连接。您可以使用tables
手动将表添加到sql from
子句。
where
和tables
都接受字符串列表。所有where
参数均为“与”任何其他搜索条件。
举例来讲:
queryresult=models.article .objects.extra(where=['nid in (1,3) or title like "py%" ','nid>2'])
整体插入
创建对象时,尽可能使用bulk_create()来减少sql查询的数量。例如:
entry.objects.bulk_create([ entry(headline="python 3.0 released"), entry(headline="python 3.1 planned") ])
...更优于:
entry.objects.create(headline="python 3.0 released") entry.objects.create(headline="python 3.1 planned")
注意该方法有很多注意事项,所以确保它适用于你的情况。
这也可以用在manytomanyfields中,所以:
my_band.members.add(me, my_friend)
...更优于:
my_band.members.add(me) my_band.members.add(my_friend)
...其中bands和artists具有多对多关联。