欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

基于Python Dash库制作酷炫的可视化大屏

程序员文章站 2022-06-16 13:33:11
目录介绍数据大屏搭建介绍大家好,我是小f~在数据时代,我们每个人既是数据的生产者,也是数据的使用者,然而初次获取和存储的原始数据杂乱无章、信息冗余、价值较低。要想数据达到生动有趣、让人一目了然、豁然开...

介绍

大家好,我是小f~

在数据时代,我们每个人既是数据的生产者,也是数据的使用者,然而初次获取和存储的原始数据杂乱无章、信息冗余、价值较低。

要想数据达到生动有趣、让人一目了然、豁然开朗的效果,就需要借助数据可视化。

以前给大家介绍过使用streamlit库制作大屏,今天给大家带来一个新方法。

通过python的dash库,来制作一个酷炫的可视化大屏!

先来看一下整体效果,好像还不错哦。

基于Python Dash库制作酷炫的可视化大屏

主要使用python的dash库、plotly库、requests库。

其中requests爬取数据,plotly制作可视化图表,dash搭建可视化页面。

原始数据是小f的博客数据,数据存储在mysql数据库中。

如此看来,和streamlit库的搭建流程,所差不多。

关于dash库,网上的资料不是很多,基本上只能看官方文档和案例,下面小f简单介绍一下。

dash是一个用于构建web应用程序的高效python框架,特别适合使用python进行数据分析的人。

dash是建立在flask,plotly.js和react.js之上,非常适合在纯python中,使用高度自定义的用户界面,构建数据可视化应用程序。

相关文档

说明:https://dash.plotly.com/introduction

案例:https://dash.gallery/portal/

源码:https://github.com/plotly/dash-sample-apps/

具体的大家可以去看文档学习,多动手练习。

下面就给大家讲解下如何通过dash搭建可视化大屏~

数据

使用的数据是博客数据,主要是下方两处红框的信息。

通过爬虫代码爬取下来,存储在mysql数据库中。

基于Python Dash库制作酷炫的可视化大屏

其中mysql的安装,大家可以自行百度,都挺简单的。

安装好后,进行启用,以及创建数据库。

# 启动mysql, 输入密码
mysql -u root -p
 
# 创建名为my_database的数据库
create database my_database;

其它相关的操作命令如下所示。

# 显示mysql中所有的数据库
show databases;
 
# 选择my_database数据库
use my_database;
 
# 显示my_database数据库中所有的表
show tables;
 
# 删除表
drop table info;
drop table `2021-12-26`;
 
# 显示表中的内容, 执行sql查询语句
select * from info;
select * from `2021-12-26`;

搞定上面的步骤后,就可以运行爬虫代码。

数据爬取代码如下。这里使用到了pymysql这个库,需要pip安装下。

import requests
import re
from bs4 import beautifulsoup
import time
import random
import pandas as pd
from sqlalchemy import create_engine
import datetime as dt
 
 
def get_info():
    """获取大屏第一列信息数据"""
    headers = {
        'user-agent': 'mozilla/5.0 (msie 10.0; windows nt 6.1; trident/5.0)',
        'referer': 'https: // passport.csdn.net / login',
    }
    # 我的博客地址
    url = 'https://blog.csdn.net/river_star1/article/details/121463591'
    try:
        resp = requests.get(url, headers=headers)
        now = dt.datetime.now().strftime("%y-%m-%d %x")
        soup = beautifulsoup(resp.text, 'lxml')
        author_name = soup.find('div', class_='user-info d-flex flex-column profile-intro-name-box').find('a').get_text(strip=true)
        head_img = soup.find('div', class_='avatar-box d-flex justify-content-center flex-column').find('a').find('img')['src']
        row1_nums = soup.find_all('div', class_='data-info d-flex item-tiling')[0].find_all('span', class_='count')
        row2_nums = soup.find_all('div', class_='data-info d-flex item-tiling')[1].find_all('span', class_='count')
        level_mes = soup.find_all('div', class_='data-info d-flex item-tiling')[0].find_all('dl')[-1]['title'].split(',')[0]
        rank = soup.find('div', class_='data-info d-flex item-tiling').find_all('dl')[-1]['title']
        info = {
            'date': now,#时间
            'head_img': head_img,#头像
            'author_name': author_name,#用户名
            'article_num': str(row1_nums[0].get_text()),#文章数
            'fans_num': str(row2_nums[1].get_text()),#粉丝数
            'like_num': str(row2_nums[2].get_text()),#喜欢数
            'comment_num': str(row2_nums[3].get_text()),#评论数
            'level': level_mes,#等级
            'visit_num': str(row1_nums[3].get_text()),#访问数
            'score': str(row2_nums[0].get_text()),#积分
            'rank': str(row1_nums[2].get_text()),#排名
        }
        df_info = pd.dataframe([info.values()], columns=info.keys())
        return df_info
    except exception as e:
        print(e)
        return get_info()
 
 
def get_type(title):
    """设置文章类型(依据文章名称)"""
    the_type = '其他'
    article_types = ['项目', '数据可视化', '代码', '图表', 'python', '可视化', '数据', '面试', '视频', '动态', '下载']
    for article_type in article_types:
        if article_type in title:
            the_type = article_type
            break
    return the_type
 
 
def get_blog():
    """获取大屏第二、三列信息数据"""
    headers = {
        'user-agent': 'mozilla/5.0 (msie 10.0; windows nt 6.1; trident/5.0)',
        'referer': 'https: // passport.csdn.net / login',
    }
    base_url = 'https://blog.csdn.net/river_star1/article/list/'
    resp = requests.get(base_url+"1", headers=headers,  timeout=3)
    max_page = int(re.findall(r'var listtotal = (\d+);', resp.text)[0])//40+1
    df = pd.dataframe(columns=['url', 'title', 'date', 'read_num', 'comment_num', 'type'])
    count = 0
    for i in range(1, max_page+1):
        url = base_url + str(i)
        resp = requests.get(url, headers=headers)
        soup = beautifulsoup(resp.text, 'lxml')
        articles = soup.find("div", class_='article-list').find_all('div', class_='article-item-box csdn-tracking-statistics')
        for article in articles[1:]:
            a_url = article.find('h4').find('a')['href']
            title = article.find('h4').find('a').get_text(strip=true)[2:]
            issuing_time = article.find('span', class_="date").get_text(strip=true)
            num_list = article.find_all('span', class_="read-num")
            read_num = num_list[0].get_text(strip=true)
            if len(num_list) > 1:
                comment_num = num_list[1].get_text(strip=true)
            else:
                comment_num = 0
            the_type = get_type(title)
            df.loc[count] = [a_url, title, issuing_time, int(read_num), int(comment_num), the_type]
            count += 1
        time.sleep(random.choice([1, 1.1, 1.3]))
    return df
 
 
if __name__ == '__main__':
    # 今天的时间
    today = dt.datetime.today().strftime("%y-%m-%d")
    # 连接mysql数据库
    engine = create_engine('mysql+pymysql://root:123456@localhost/my_database?charset=utf8')
 
    # 获取大屏第一列信息数据, 并写入my_database数据库的info表中, 如若表已存在, 删除覆盖
    df_info = get_info()
    print(df_info)
    df_info.to_sql("info", con=engine, if_exists='replace', index=false)
 
    # 获取大屏第二、三列信息数据, 并写入my_database数据库的日期表中, 如若表已存在, 删除覆盖
    df_article = get_blog()
    print(df_article)
    df_article.to_sql(today, con=engine, if_exists='replace', index=true)

运行成功后,就可以去数据库查询信息了。

info表,包含日期、头图、博客名、文章数、粉丝数、点赞数、评论数、等级数、访问数、积分数、排名数。

基于Python Dash库制作酷炫的可视化大屏

日期表,包含文章地址、标题、日期、阅读数、评论数、类型。

基于Python Dash库制作酷炫的可视化大屏

其中爬虫代码可设置定时运行,info表为60秒,日期表为60分钟。

尽量不要太频繁,容易被封ip,或者选择使用代理池。

这样便可以做到数据实时更新。

既然数据已经有了,下面就可以来编写页面了。

大屏搭建

导入相关的python库,同样可以通过pip进行安装。

from spider_py import get_info, get_blog
from dash import dcc
import dash
from dash import html
import pandas as pd
import plotly.graph_objs as go
from dash.dependencies import input, output
import datetime as dt
from sqlalchemy import create_engine
from flask_caching import cache
import numpy as np

设置一些基本的配置参数,如数据库连接、网页样式、dash实例、图表颜色。

# 今天的时间
today = dt.datetime.today().strftime("%y-%m-%d")
 
# 连接数据库
engine = create_engine('mysql+pymysql://root:123456@localhost/my_database?charset=utf8')
 
# 导入css样式
external_css = [
    "https://stackpath.bootstrapcdn.com/bootstrap/4.1.3/css/bootstrap.min.css",
    "https://cdnjs.cloudflare.com/ajax/libs/skeleton/2.0.4/skeleton.min.css"
]
 
# 创建一个实例
app = dash.dash(__name__, external_stylesheets=external_css)
server = app.server
 
# 可以选择使用缓存, 减少频繁的数据请求
# cache = cache(app.server, config={
#     'cache_type': 'filesystem',
#     'cache_dir': 'cache-directory'
# })
 
# 读取info表的数据
info = pd.read_sql('info', con=engine)
 
# 图表颜色
color_scale = ['#2c0772', '#3d208e', '#8d7dff', '#cdccff', '#c7fffb', '#ff2c6d', '#564b43', '#161d33']

这里将缓存代码注释掉了,如有频繁的页面刷新请求,就可以选择使用。

def indicator(text, id_value):
    """第一列的文字及数字信息显示"""
    return html.div([
    html.p(text, classname="twelve columns indicator_text"),
    html.p(id=id_value, classname="indicator_value"),
], classname="col indicator")
 
 
def get_news_table(data):
    """获取文章列表, 根据阅读排序"""
    df = data.copy()
    df.sort_values('read_num', inplace=true, ascending=false)
    titles = df['title'].tolist()
    urls = df['url'].tolist()
 
    return html.table([html.tbody([
        html.tr([
            html.td(
                html.a(titles[i], href=urls[i], target="_blank",))
        ], style={'height': '30px', 'fontsize': '16'})for i in range(min(len(df), 100))
    ])], style={"height": "90%", "width": "98%"})
 
 
# @cache.memoize(timeout=3590), 可选择设置缓存, 我没使用
def get_df():
    """获取当日最新的文章数据"""
    df = pd.read_sql(today, con=engine)
    df['date_day'] = df['date'].apply(lambda x: x.split(' ')[0]).astype('datetime64[ns]')
    df['date_month'] = df['date'].apply(lambda x: x[:7].split('-')[0] + "年" + x[:7].split('-')[-1] + "月")
    df['weekday'] = df['date_day'].dt.weekday
    df['year'] = df['date_day'].dt.year
    df['month'] = df['date_day'].dt.month
    df['week'] = df['date_day'].dt.isocalendar().week
    return df
 
 
# 导航栏的图片及标题
head = html.div([
    html.div(html.img(src='./assets/img.jpg', height="100%"), style={"float": "left", "height": "90%", "margin-top": "5px", "border-radius": "50%", "overflow": "hidden"}),
    html.span("{}博客的dashboard".format(info['author_name'][0]), classname='app-title'),
], classname="row header")
 
# 第一列的文字及数字信息
columns = info.columns[3:]
col_name = ['文章数', '关注数', '喜欢数', '评论数', '等级', '访问数', '积分', '排名']
row1 = html.div([
    indicator(col_name[i], col) for i, col in enumerate(columns)
], classname='row')
 
# 第二列
row2 = html.div([
    html.div([
        html.p("每月文章写作情况"),
        dcc.graph(id="bar", style={"height": "90%", "width": "98%"}, config=dict(displaymodebar=false),)
    ], classname="col-4 chart_div",),
    html.div([
        html.p("各类型文章占比情况"),
        dcc.graph(id="pie", style={"height": "90%", "width": "98%"}, config=dict(displaymodebar=false),)
    ], classname="col-4 chart_div"),
    html.div([
        html.p("各类型文章阅读情况"),
        dcc.graph(id="mix", style={"height": "90%", "width": "98%"}, config=dict(displaymodebar=false),)
    ], classname="col-4 chart_div",)
], classname='row')
 
# 年数统计, 我的是2019 2020 2021
years = get_df()['year'].unique()
select_list = ['每月文章', '类型占比', '类型阅读量', '每日情况']
 
# 两个可交互的下拉选项
dropdowm1 = html.div([
    html.div([
        dcc.dropdown(id='dropdown1',
                 options=[{'label': '{}年'.format(year), 'value': year} for year in years],
                 value=years[1], style={'width': '40%'})
        ], classname='col-6', style={'padding': '2px', 'margin': '0px 5px 0px'}),
    html.div([
        dcc.dropdown(id='dropdown2',
                 options=[{'label': select_list[i], 'value': item} for i, item in enumerate(['bar', 'pie', 'mix', 'heatmap'])],
                 value='heatmap', style={'width': '40%'})
        ], classname='col-6', style={'padding': '2px', 'margin': '0px 5px 0px'})
], classname='row')
 
# 第三列
row3 = html.div([
    html.div([
        html.p("每日写作情况"),
        dcc.graph(id="heatmap", style={"height": "90%", "width": "98%"}, config=dict(displaymodebar=false),)
    ], classname="col-6 chart_div",),
    html.div([
        html.p("文章列表"),
        html.div(get_news_table(get_df()), id='click-data'),
    ], classname="col-6 chart_div", style={"overflowy": "scroll"})
], classname='row')
 
# 总体情况
app.layout = html.div([
    # 定时器
    dcc.interval(id="stream", interval=1000*60, n_intervals=0),
    dcc.interval(id="river", interval=1000*60*60, n_intervals=0),
    html.div(id="load_info", style={"display": "none"},),
    html.div(id="load_click_data", style={"display": "none"},),
    head,
    html.div([
        row1,
        row2,
        dropdowm1,
        row3,
    ], style={'margin': '0% 30px'}),
])

上面的代码,就是网页的布局,效果如下。

基于Python Dash库制作酷炫的可视化大屏

网页可以划分为三列。第一列为info表中的数据展示,第二、三列为博客文章的数据展示。

相关的数据需要通过回调函数进行更新,这样才能做到实时刷新。

各个数值及图表的回调函数代码如下所示。

# 回调函数, 60秒刷新info数据, 即第一列的数值实时刷新
@app.callback(output('load_info', 'children'), [input("stream", "n_intervals")])
def load_info(n):
    try:
        df = pd.read_sql('info', con=engine)
        return df.to_json()
    except:
        pass
 
 
# 回调函数, 60分钟刷新今日数据, 即第二、三列的数值实时刷新(爬取文章数据, 并写入数据库中)
@app.callback(output('load_click_data', 'children'), [input("river", "n_intervals")])
def cwarl_data(n):
    if n != 0:
        df_article = get_blog()
        df_article.to_sql(today, con=engine, if_exists='replace', index=true)
 
 
# 回调函数, 第一个柱状图
@app.callback(output('bar', 'figure'), [input("river", "n_intervals")])
def get_bar(n):
    df = get_df()
    df_date_month = pd.dataframe(df['date_month'].value_counts(sort=false))
    df_date_month.sort_index(inplace=true)
    trace = go.bar(
        x=df_date_month.index,
        y=df_date_month['date_month'],
        text=df_date_month['date_month'],
        textposition='auto',
        marker=dict(color='#33ffe6')
    )
    layout = go.layout(
        margin=dict(l=40, r=40, t=10, b=50),
        yaxis=dict(gridcolor='#e2e2e2'),
        paper_bgcolor='rgba(0,0,0,0)',
        plot_bgcolor='rgba(0,0,0,0)',
    )
    return go.figure(data=[trace], layout=layout)
 
 
# 回调函数, 中间的饼图
@app.callback(output('pie', 'figure'), [input("river", "n_intervals")])
def get_pie(n):
    df = get_df()
    df_types = pd.dataframe(df['type'].value_counts(sort=false))
    trace = go.pie(
        labels=df_types.index,
        values=df_types['type'],
        marker=dict(colors=color_scale[:len(df_types.index)])
    )
    layout = go.layout(
        margin=dict(l=50, r=50, t=50, b=50),
        paper_bgcolor='rgba(0,0,0,0)',
        plot_bgcolor='rgba(0,0,0,0)',
    )
    return go.figure(data=[trace], layout=layout)
 
 
# 回调函数, 左下角热力图
@app.callback(output('heatmap', 'figure'),
              [input("dropdown1", "value"), input('river', 'n_intervals')])
def get_heatmap(value, n):
    df = get_df()
    grouped_by_year = df.groupby('year')
    data = grouped_by_year.get_group(value)
    cross = pd.crosstab(data['weekday'], data['week'])
    cross.sort_index(inplace=true)
    trace = go.heatmap(
        x=['第{}周'.format(i) for i in cross.columns],
        y=["星期{}".format(i+1) if i != 6 else "星期日" for i in cross.index],
        z=cross.values,
        colorscale="blues",
        reversescale=false,
        xgap=4,
        ygap=5,
        showscale=false
    )
    layout = go.layout(
        margin=dict(l=50, r=40, t=30, b=50),
    )
    return go.figure(data=[trace], layout=layout)
 
 
# 回调函数, 第二个柱状图(柱状图+折线图)
@app.callback(output('mix', 'figure'), [input("river", "n_intervals")])
def get_mix(n):
    df = get_df()
    df_type_visit_sum = pd.dataframe(df['read_num'].groupby(df['type']).sum())
    df['read_num'] = df['read_num'].astype('float')
    df_type_visit_mean = pd.dataframe(df['read_num'].groupby(df['type']).agg('mean').round(2))
    trace1 = go.bar(
        x=df_type_visit_sum.index,
        y=df_type_visit_sum['read_num'],
        name='总阅读',
        marker=dict(color='#ffc97b'),
        yaxis='y',
    )
    trace2 = go.scatter(
        x=df_type_visit_mean.index,
        y=df_type_visit_mean['read_num'],
        name='平均阅读',
        yaxis='y2',
        line=dict(color='#161d33')
    )
    layout = go.layout(
        margin=dict(l=60, r=60, t=30, b=50),
        showlegend=false,
        yaxis=dict(
            side='left',
            title='阅读总数',
            gridcolor='#e2e2e2'
        ),
        yaxis2=dict(
            showgrid=false,  # 网格
            title='阅读平均',
            anchor='x',
            overlaying='y',
            side='right'
        ),
        paper_bgcolor='rgba(0,0,0,0)',
        plot_bgcolor='rgba(0,0,0,0)',
    )
    return go.figure(data=[trace1, trace2], layout=layout)
 
 
# 点击事件, 选择两个下拉选项, 点击对应区域的图表, 文章列表会刷新
@app.callback(output('click-data', 'children'),
        [input('pie', 'clickdata'),
         input('bar', 'clickdata'),
         input('mix', 'clickdata'),
         input('heatmap', 'clickdata'),
         input('dropdown1', 'value'),
         input('dropdown2', 'value'),
         ])
def display_click_data(pie, bar, mix, heatmap, d_value, fig_type):
    try:
        df = get_df()
        if fig_type == 'pie':
            type_value = pie['points'][0]['label']
            # date_month_value = clickdata['points'][0]['x']
            data = df[df['type'] == type_value]
        elif fig_type == 'bar':
            date_month_value = bar['points'][0]['x']
            data = df[df['date_month'] == date_month_value]
        elif fig_type == 'mix':
            type_value = mix['points'][0]['x']
            data = df[df['type'] == type_value]
        else:
            z = heatmap['points'][0]['z']
            if z == 0:
                return none
            else:
                week = heatmap['points'][0]['x'][1:-1]
                weekday = heatmap['points'][0]['y'][-1]
                if weekday == '日':
                    weekday = 7
                year = d_value
                data = df[(df['weekday'] == int(weekday)-1) & (df['week'] == int(week)) & (df['year'] == year)]
        return get_news_table(data)
    except:
        return none
 
 
# 第一列的数值
def update_info(col):
    def get_data(json, n):
        df = pd.read_json(json)
        return df[col][0]
    return get_data
 
 
for col in columns:
    app.callback(output(col, "children"),
                 [input('load_info', 'children'), input("stream", "n_intervals")]
     )(update_info(col))

图表的数据和样式全在这里设置,两个下拉栏的数据交互也在这里完成。

基于Python Dash库制作酷炫的可视化大屏

需要注意右侧下拉栏的类型,需和你所要点击图表类型一致,这样文章列表才会更新。

每日情况对应热力图,类型阅读量对应第二列第三个图表,类型占比对应饼图,每月文章对应第一个柱状图的点击事件。

最后启动程序代码。

if __name__ == '__main__':
    # debug模式, 端口7777
    app.run_server(debug=true, threaded=true, port=7777)
    # 正常模式, 网页右下角的调试按钮将不会出现
    # app.run_server(port=7777)

这样就能在本地看到可视化大屏页面,浏览器打开如下地址。

http://127.0.0.1:7777

基于Python Dash库制作酷炫的可视化大屏

对于网页的布局、背景颜色等,主要通过css进行设置。

这一部分可能是大家所要花费时间去理解的。

body{
    margin:0;
    padding: 0;
    background-color: #161d33;
    font-family: 'open sans', sans-serif;
    color: #506784;
    -webkit-user-select: none;  /* chrome all / safari all */
    -moz-user-select: none;     /* firefox all */
    -ms-user-select: none;      /* ie 10+ */
    user-select: none;          /* likely future */
}
 
.modal {
    display: block;  /*hidden by default */
    position: fixed; /* stay in place */
    z-index: 1000; /* sit on top */
    left: 0;
    top: 0;
    width: 100%; /* full width */
    height: 100%; /* full height */
    overflow: auto; /* enable scroll if needed */
    background-color: rgb(0,0,0); /* fallback color */
    background-color: rgba(0,0,0,0.4); /* black w/ opacity */
}
 
.modal-content {
    background-color: white;
    margin: 5% auto; /* 15% from the top and centered */
    padding: 20px;
    width: 30%; /* could be more or less, depending on screen size */
    color:#506784;
}
 
._dash-undo-redo {
  display: none;
}
 
.app-title{
    color:white;
    font-size:3rem;
    letter-spacing:-.1rem;
    padding:10px;
    vertical-align:middle
}
 
.header{
    margin:0px;
    background-color:#161d33;
    height:70px;
    color:white;
    padding-right:2%;
    padding-left:2%
}
 
.indicator{
  border-radius: 5px;
  background-color: #f9f9f9;
  margin: 10px;
  padding: 15px;
  position: relative;
  box-shadow: 2px 2px 2px lightgrey;
}
 
.indicator_text{
    text-align: center;
    float: left;
    font-size: 17px;
    }
 
.indicator_value{
    text-align:center;
    color: #2a3f5f;
    font-size: 35px;
}
 
.add{
    height: 34px;
    background: #119dff;
    border: 1px solid #119dff;
    color: white;
}
 
.chart_div{
    background-color: #f9f9f9;
    border-radius: 5px;
    height: 390px;
    margin:5px;
    padding: 15px;
    position: relative;
    box-shadow: 2px 2px 2px lightgrey;
}
 
.col-4 {
    flex: 0 0 32.65%;
    max-width: 33%;
}
 
.col-6 {
    flex: 0 0 49.3%;
    max-width: 50%;
}
 
.chart_div p{
    color: #2a3f5f;
    font-size: 15px;
    text-align: center;
}
 
td{
    text-align: left;
    padding: 0px;
}
 
table{
    border: 1px;
    font-size:1.3rem;
    width:100%;
    font-family:ubuntu;
}
 
.tabs_div{
    margin:0px;
    height:30px;
    font-size:13px;
    margin-top:1px
}
 
tr:nth-child(even) {
    background-color: #d6e4ea;
    -webkit-print-color-adjust: exact;
}

如今低代码平台的出现,或许以后再也不用去写烦人的html、css等。拖拖拽拽,即可轻松完成一个大屏的制作。

好了,今天的分享到此结束,大家可以自行去动手练习。

参考链接:

https://github.com/ffzs/dash_blog_dashboard

https://github.com/plotly/dash-sample-apps/tree/main/apps/dash-oil-and-gas

以上就是基于python dash库制作酷炫的可视化大屏的详细内容,更多关于python dash库制作可视化大屏的资料请关注其它相关文章!