当前位置: 首页 > news >正文

苏州做企业网站的公司logo设计制作公司

苏州做企业网站的公司,logo设计制作公司,推广手段有哪些方式,市场监督管理局上班时间数据分析python基础实战分析 安装python#xff0c;建议安装Anaconda 【Anaconda下载链接】https://repo.anaconda.com/archive/ 记得勾选上这个框框 安装完后#xff0c;然后把这两个框框给取消掉再点完成 在电脑搜索框输入Jupyter#xff0c;牛马启动建议安装Anaconda 【Anaconda下载链接】https://repo.anaconda.com/archive/ 记得勾选上这个框框 安装完后然后把这两个框框给取消掉再点完成 在电脑搜索框输入Jupyter牛马启动 等待终端运行 运行完后会自动弹出网页 这里建议设置一下目录以便后续创建的所有文件容易找到 新建一个目录“python练习” 输入“jupyter notebook”然后回车就会运行终端弹出浏览器 这样就得到一个干净的笔记本啦可以右上角new新建python文件写代码运行 shift enter 运行 数据类型 常见有整型int浮点型float布尔型bool字符串string列表list字典dict根据业务变量需要而变化。 变量与赋值 变量 数值将数值赋值给变量 数据结构 list列表数据量级大的时候将多个数据一同存储到一个变量方便后面使用。 dict字典:{key(唯一)值}如果懂什么叫映射就理解dict。excel里的表头就相当于key如果列的表头带着多个值可以这样写{key : [ 值1, 值2, 值3] }表示一列key作表头有3行值的数据如果是多列可以写成:{key1 : [ 值1, 值2, 值3] ,key2 : [ 值1, 值2, 值3] ,key3 : [ 值1, 值2, 值3] } 还有这种 [{key1 : 值1 , key2 : 值2 ,key3 : 值3 }, {key1 : 值1 , key2 : 值2 ,key3 : 值3 }, {key1 : 值1 , key2 : 值2 ,key3 : 值3 }] 数据结构检索与访问 检索列表[0,3] 代表从第0个开始共3个 访问字典[‘key’] 返回对应key的值 分析数据过程 1.取出数据赋值给一个变量。例如有个字典ad_list, ad_1 ad_list[0],打印ad_1 2.处理重复数据例如del ad_1[‘成交金额’],打印ad_1 3.处理异常值ad_1[‘GMV’] ad_1[‘GMV’]/100, 打印ad_1 4.发现缺少某些指标例如ROI, ad_1[‘ROI’] round(ad_1[‘GMV’]/ ad_1[‘消耗’],2)打印ad_1,并且roi保留两位小数 5.查看广告策略例如 ad_1[‘商品名称’] ad_1 [‘广告计划名称’].split(‘‘)[0], ad_1[‘人群标签’] ad_1 [‘广告计划名称’].split(’’)[1], ad_1[‘用户年龄’] ad_1 [‘广告计划名称’].split(‘‘)[2], ad_1[‘用户等级’] ad_1 [‘广告计划名称’].split(’’)[3] for循环 for item in list:print(item)//range()范围这里3的意思是会产生一个0到3的序列范围左闭右开 //len()长度list里面有多少个数值 for i in range(len(list)):print(list[i])如果数据太长可以用txt保存在用python进行读取 with open(历史数据.txt, r, encoding utf-8) as f:history f.readline() //打印结果为字符串 history //将字符串转换成list history eval(history) history //如果history需要整合其他list,ad_list会追加到history后面 history.extend(ad_list)IF语句 if 条件:do else:do if 条件:do elif 条件:do else:do#如果要取出ROI大于1的数据 roi_list [] for i range(len(hisotry)):if history[i][roi]1:print(history[i])roi_list.append(history[i])elsepass #打印 roi_list自定义函数 #参数输入有返回值 #f字符串可以在字符串中嵌套变量 def nooddle_machine(water, flour):print(搅拌……)print(f{water}和{flour}已经变成面团)print(正在挤压面团)return f由{water}和{flour}制作而成的面条已经ok了 #使用 bowl nooddle_machine(水,面粉) bowl#没有输入参数但有返回值 import datetime def yesterday():date datetime.datetim.now() -- datetime.timedelta(days1)return date.date() yesterday yesterday() yesterday#有输入参数但没有返回值 def upload_data(date):print(f已经将{date}的数据上传至数据库) upload_data(2024-06-25)#没有输入参数没有返回值 def upload_data():date yesterday()print(f已经将{date}的数据上传到数据库)批量处理 def batch_data(data_list):for i in range(len(data_list)):process_data(data_list[i])#比方说选出ROI大于1的数据 def filter_roi(data_list):roi_list []for i range(len(data_list)):if data_list[i][ROI] 1:print(data_list[i])roi_list.append(data_list[i])else:passreturn ros_list模块与包 import pandas as pd Series/DataFrame Series: 属于一维的 # name相当于表头 # index索引 s1 pd.Series([a,b,c],name test, index[1,2,3])#如果需要将两个Series整合 pd.concat([s1],[s2], axis1)DataFrame: 二维, 本质上是字典里面的值是列表可以理解成是Series构成的 pandas读取和导出 读取 import pandas as pd data pd.read_excel(r路径\文件.xlsx,converters{uid: str, id:str }) //查看数据 data.info() #另一种方式 data[id] data[id].astype(str)导出 #index False 可以去掉导出后excel的索引 data.to_excel(test excel.xlsx, index False)data.to_csv(test csv.csv, encodingGB18030)//文字能识别成功但是数值会被Excel使用科学计数法代替 data.to_csv(test csv.txt, sep\t)访问与筛选 访问 访问列data[‘字段名’]; 如果是多个字段-data[[‘字段名1’,‘字段名2’,‘字段名3’]] 访问行data.iloc[1]; data.iloc[1:6],左闭右开返回2到5行数据; data.iloc[1:6][‘字段名’],返回2到5行这个字段的数据 筛选 主要是通过True and false来判断 data[data[‘progress’] 100000 ] 去重筛选 data.drop_duplicates(subset‘uid’, keep ‘last’, inplaceTrue) 轴/合并/连接 轴axis0是行axis1是列axis相当于方向 合并concat_demo pd.concat([data, data2], axis0) 连接pd.merge(左表, 右表, how‘inner’, on‘uid’) 如果名字不一样 rename:左表.rename(columns {‘uid’: ‘user_id’ }, inplace True) pd.merge(左表, 右表, how‘inner’, left_on‘uid’, right‘user_id’) 排序与匿名函数 排序 data.sort_values([‘uid’,‘ctime’], ascending [True, False]) 匿名函数 add2 lambda x: x5 add3 lambda x, y : xy 分组/聚合/转换 分组:分组只会创建一个object再用object去调用count方法 data_manager data.groupby(‘字段’)-data_manager.count() 聚合 先groupby后再调用聚合方法 data_manager[[‘消耗’,‘GMV’]].sum() data_manager[[‘消耗’,‘GMV’]].agg([‘max’,‘min’])//看每个字段的最大和最小 data_manager.agg({‘消耗’: [‘max’,‘min’], ‘GMV’ : ‘min’}) 算最大值和最小值的差值 data_manager[[‘消耗’,‘GMV’]].agg(lambda x: x.max() - x.min()) 转换 data_manager[‘GMV’].transform(func‘sum’) 同效果data_manager[‘GMV’].agg(func‘sum’) 组内排名: #每个投放日期内广告计划ID和GMV排名 history[每日GMV排名] history.groupby(投放日期)[GMV].rank(method dense, ascending False) history[每日GMV排名] history[每日GMV排名].astype(int) history.head(20)字符串数据清洗 split::用什么符号分割 history[’广告计划名称‘].str.split(_, expandTrue),返回一个DataFramecontains:字符串中包含了什么内容 history[history[商品名称].str.contains(玩转),返回值是布尔值].reset_index(dropTrue)replace: 举例将《》两个符号改成【】 history[商品名称].str.replace(《,【).str.replace(》,】)结合正则表达式更简洁的方式 正则表达式在线测试网站https://regex101.com/ history[商品名称].str.replace(r《(.*?)》,r【\1】,regexTrue)extract:提取一个数据里面的部分内容 history[广告计划名称].str.extract(r(.*?)_)绘图 折线图 history.groupby(投放日期)[GMV].sum().plot(kindline, x投放日期, yGMV)#如果想导入中文字体 import matplotlib.pyplot as plt plt.rcParams[font.family] SimHei柱状图 history.groupby(广告计划ID)[GMV].sum().plot(kindbar, x广告计划ID, yGMV)水平柱状图 history.groupby(广告计划ID)[GMV].sum().plot(kindbarh, x广告计划ID, yGMV)直方图 history[GMV].plot(kind hist)散点图 history.plot(kind scatter, xGMV, y消耗)饼图 history.groupby(广告计划ID)[GMV].sum().plot(kind pie)PyGWalker 安装在电脑CMD输入 pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pygwalker 使用 import pygwalker as pw pw.walk(history)map/apply/applymap map: 对列或行进行处理 将GMV列的数据转换成int型 history[GMV].map(lambda x : int(x))与apply不同的可以用字典 history[‘人群标签’].map({‘数据分析’ : ‘数分’}) apply: 如果操作的数据类型式DataFrame,则使用apply或者applymap。 #举例,因为这个是从左往右相加所以要用axis进行定义,args是对系数设置 coe None if condition1:coe 0.8 elif condition2:coe 0.5 elif condition3:coe 0.3def demo(x, coe):formular x[客单价] x[消耗] [直播间消耗]formular formular x[GMV]return formular * coehistory.apply(demo, axis1, args(coe,))applymap:所有字段都需要做同一个处理其实apply也能做到 办公自动化 背景老板需要提供抖音平台上男士护肤品牌的带货视频将已有的excel数据转换成word文档展示给老板看。 首先明确python怎么操作word再确认将excel整合到word的格式。 CMD安装python-docx pip install -i https://pypi.tuna.tsinghua.edu.cn/simple python-docx1.导入pandas as pd获取excel数据 import pandas as pd video_list pd.read_excel(video_list.xlsx) speech_text pd.read_excel(speech_text.xlsx)#检查数据用vide_list.info()发现id为转换成整型应该需要字符串 video_list[AwemeId] video_list[AwemeId].astype(str) speech_text[VideoId] speech_text[VideoId].astype(str)#将两个表连接一起 merge pd.merge(video_list, speech_text, how inner, left_on AwemeId, right_on VideoId)创建一个空的document: from docx import Document document Document()记得每次要新建的文件要重新赋值Document() document Document() for i in range(len(merge)):#如果遇到同一个品牌的时候无须重复创建i 0 防止第一条查找时报错if merge.iloc[i][品牌] ! merge.iloc[i-1][品牌] or i 0:document.add_heading(merge.iloc[i][品牌],level 1)document.add_heading(merge.iloc[i][视频标题],level 2)document.add_paragraph(f达人昵称{merge.iloc[i][BloggerName]})document.add_paragraph(f视频链接douyin.com/video/{merge.iloc[i][AwemeId]})document.add_paragraph(merge.iloc[i][视频文案]) document.save(demo.docx)探索分析 背景得到一组弹幕数据怎么做内容分析 数据处理 导入 import pandas as pduser_level pd.read_excel(user_level.xlsx) #将本地文件整合 import os excel_list []for item in os.listdir(./):if xlsx in item and user_level not in item:excel_list.append(item)danmu pd.DataFrame() for item in excel_list:excel pd.read_excel(item,converters {id: str, uid : str, Awemeid : str})#合并前新建一个字段区分每个表excel[视频标题] itemdanmu pd.concat([danmu, excel], axis0)时间处理 时间维度 danmu[弹幕创建时间] danmu[ctime].map(datetime.fromtimestamp)danmu[年] danmu[弹幕创建时间].map(lambda x: x.year) danmu[月份] danmu[弹幕创建时间].map(lambda x: x.month) danmu[星期] danmu[弹幕创建时间].map(datetime.isoweekday) danmu[小时] danmu[弹幕创建时间].map(lambda x: x.hour)时间可视化分析 #准备画图工具字体设置微软雅黑 import matplotlib.pyplot as plt plt.rcParams[font.sans-serif] [SimHei]danmu_year danmu[danmu[年]2022] danmu_year.groupby(月份)[[id]].count().plot() danmu_year.groupby(月份)[[uid]].nunique().plot()danmu_year.groupby(星期)[[id]].count().plot() danmu_year.groupby(星期)[[uid]].nunique().plot()danmu_year.groupby(小时)[[id]].count().plot() danmu_year.groupby(小时)[[uid]].nunique().plot()用户画像 用户处理 #统计用户弹幕的数 danmu[用户弹幕数] danmu.groupby(uid)[id].transform(count) #想加上另一个表的level字段记得id号on的时候类型要保持一致这里是字符串 user_level[uid] user_level[uid].astype(str) danmu_level pd.merge(danmu, user_level, on uid, how inner)弹幕内容 #按降序排弹幕数最多的用户,新建一个id列来存储count数 danmu_level.groupby(uid)[[id]].count().sort_values(id, ascendingFalse)#限制300行数据选定一个id用户来看 pd.set_option(display.max_rows,300) danmu_level[danmu_level[uid] 6653485828143602809]等级分布 #画出用户等级柱状图 danmu_level.groupby(level)[[id]].count().plot(kindbar)#看用户的唯一值可用于验证假设 danmu_level.groupby(level)[[uid]].nunique().plot(kindbar)视频内容 视频内容处理 from time import strftime from time import gmtimedanmu[视频进度] danmu[progress].map(lambda x: strftime(%H:%M:%S,gmtime(x))) #取时和分 danmu[视频进度【时分】] danmu[视频进度].str[:5]视频内容分析 p1 danmu[danmu[视频标题]1、系统认识数据分析.xlsx] p1.groupby(视频进度【时分】)[[id]].count().sort_values(id,ascendingFalse)#查看某时分的视频内容 p1[p1[视频进度【时分】] 00:11]总结 分析一个数据的时候可以从3个维度时间画像内容进行分析 时间维度可以提出猜想与假设画像和内容可以判断出某些真实用户的情况即可以提出某些结论具体执行过程可以分为3步1.先进行数据处理2.再拿处理好的数据进行分析3.提出假设再看实际内容验证假设。
http://www.hkea.cn/news/14339200/

相关文章:

  • 新氧网站头图怎么做的网站网页
  • 做网站好还是做淘宝好手机网站建设咨询
  • 网站维护及更新方案做网站公司关键词
  • 做微课的网站有哪些方面怎么快速建网站
  • 国外网站设计欣赏分析五大跨境电商平台对比分析
  • 怎么做网站教程图片长春网络推广seo
  • 中国建设银行电话95533seo网站推广怎么收费
  • linux下网站搭建北京餐饮网络营销公司
  • 定制网站案例深圳做网站佰达科技三十
  • 做网站宿迁软件工程师报考条件
  • 网站界面模板下载关于jsp网站开发的最新书籍
  • 北京电商网站排行seo关键字怎么优化
  • 前端做网站需要psd to wordpress
  • 山东网站建设哪里好网站做多久
  • 南宁网站快速排名提升众筹 wordpress
  • 国际站wap端流量建设网站需要营业执照吗
  • 网站建设询价嘉兴网站公司
  • 付费资料网站开发罗村建网站
  • 邯郸网站制chrome打开建设银行网站 个人网上银行怎么不能查询明细
  • 如何建电子商务网站平台网站建设报价
  • 建设工程交易中心网站收费标准学会网站建设三方协议
  • 属于自己的网站哪个网站注册域名
  • 北京品牌网站建设公司哪家好公司官网开发
  • 安徽建设银行招聘网站fm网站开发
  • 柳州建设厅官方网站中国工程建设信息网官网查询
  • 邢台做网站石家庄企业logo设计
  • 网站建设与运营固定资产最好的企业网站源码
  • 有哪些外贸公司网站做的比较好邢台网站维护
  • 网站管理员登陆不了网站建设中所涉及的所有链接建设
  • 昆明婚恋网站价格内蒙古做网站的公司