当前位置: 首页 > news >正文

贵阳能做网站的公司有哪些市场营销案例100例及答案

贵阳能做网站的公司有哪些,市场营销案例100例及答案,wordpress浮动播放器,网站建设3要素系列文章目录 利用 eutils 实现自动下载序列文件 提示#xff1a;写完文章后#xff0c;目录可以自动生成#xff0c;如何生成可参考右边的帮助文档 文章目录 系列文章目录前言一、获取文献信息二、下载文献PDF文件参考 前言 大家好✨#xff0c;这里是bio#x1f996;。…系列文章目录 利用 eutils 实现自动下载序列文件 提示写完文章后目录可以自动生成如何生成可参考右边的帮助文档 文章目录 系列文章目录前言一、获取文献信息二、下载文献PDF文件参考 前言 大家好✨这里是bio。这次为大家带来自动收集文献信息、批量下载科研论文的脚本只能批量下载公布在sci-hub上的科研论文。平常阅读文献时只需要一篇一篇下载即可并不需要用到批量下载的操作。但有时需要对某领域进行总结或者归纳就可以考虑使用批量下载咯~ 导师下令找文献学生偷偷抹眼泪。 文献三千挤满屏只下一篇可不行。 作息紊乱失双休日夜不分忘寝食。 满腔热血搞科研一盆冷水当头洛。 打油诗人作 一、获取文献信息 每个人的研究领域不一样获取文献信息的方式不一样。这里以Pubmed1为例PubMed是主要用于检索MEDLINE数据库中生命科学和生物医学引用文献及索引的免费搜索引擎。之前爬取冠状病毒核酸数据使用过eutils本篇博客也使用eutils去获取文献信息关于eutils的介绍可以看利用 eutils 实现自动下载序列文件 。这里就不做介绍~ 首先构造搜索url其中term是你检索的关键词year对应文献发表日期API_KEY能够让你在一秒内的访问次数从3次提升到10次。这里将term替换为Machine learningyear替换为2022。然后使用requests库获取该url的对应的信息在使用BeautifulSoup库将其转化为html格式。 https://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi?dbpubmedapi_key{API_KEY}term{term}{year}[pdat] 代码如下 import pandas as pd import requests from bs4 import BeautifulSoup import math import re import timeAPI_KEY Your AIP KEY term Machine Learning year 2022 url_start fhttps://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi?dbpubmedapi_key{API_KEY}term{term}{year}[pdat] info_page BeautifulSoup(requests.get(url_start, timeout(5, 5)).text, html.parser)爬取的结果如下可以看到结果主要包括许多PMID。然后包括的信息总数count31236/count、最大返回数retmax20/retmax以及结果开始的序号retstart0/retstart。下一步就是根据id获取文章对应的信息。 ?xml version1.0 encodingUTF-8 ? !DOCTYPE eSearchResult PUBLIC -//NLM//DTD esearch 20060628//EN https://eutils.ncbi.nlm.nih.gov/eutils/dtd/20060628/esearch.dtdesearchresultcount31236/countretmax20/retmaxretstart0/retstartidlist id37878682/id id37873546/id id37873494/id ... # omitting many results id37786662/id id37780106/id id37776368/id /idlisttranslationsettranslation fromMachine Learning/from tomachine learning[MeSH Terms] OR (machine[All Fields] AND learning[All Fields]) OR machine learning[All Fields]/to /translation/translationsetquerytranslation(machine learning[MeSH Terms] OR (machine[All Fields] AND learning[All Fields]) OR machine learning[All Fields]) AND 2022/01/01:2022/12/31[Date - Publication]/querytranslation/esearchresult可以看到结果也是31236条记录爬取的信息忠实于实际的信息可以放心食用~ 获取文章的信息也是相同的步骤首先构造url然后爬取对应的信息直接上代码 API_KEY Your AIP KEY id_str 37878682 url_paper fhttps://eutils.ncbi.nlm.nih.gov/entrez/eutils/efetch.fcgi?dbpubmedapi_key{API_KEY}id{id_str}rettypemedlineretmodetext paper_info BeautifulSoup(requests.get(url_paper, timeout(5, 5)).text, html.parser)结果如下包括PMID、DOI、摘要、作者、单位、发表年份等等信息你可以从这一步获得的信息中获取你需要的信息如DOI。接下来的就是要爬取文献对应的PDF文件。这是最关键的一步。 PMID- 37878682 OWN - NLM STAT- Publisher LR - 20231025 IS - 2047-217X (Electronic) IS - 2047-217X (Linking) VI - 12 DP - 2022 Dec 28 TI - Computational prediction of human deep intronic variation. LID - giad085 [pii] LID - 10.1093/gigascience/giad085 [doi] AB - BACKGROUND: The adoption of whole-genome sequencing in genetic screens has facilitated the detection of genetic variation in the intronic regions of genes, far from annotated splice sites. However, selecting an appropriate computational tool to discriminate functionally relevant genetic variants from those with no effect is challenging, particularly for deep intronic regions where independent benchmarks are scarce. RESULTS: In this study, we have provided an overview of the computational methods available and the extent to which they can be used to analyze deep intronic variation. We leveraged diverse datasets to extensively evaluate tool performance across different intronic regions, distinguishing between variants that are expected to disrupt splicing through different molecular mechanisms. Notably, we compared the performance of SpliceAI, a widely used sequence-based deep learning model, with that of more recent methods that extend its original implementation. We observed considerable differences in tool performance depending on the region considered, with variants generating cryptic splice sites being better predicted than those that potentially affect splicing regulatory elements. Finally, we devised a novel quantitative assessment of tool interpretability and found that tools providing mechanistic explanations of their predictions are often correct with respect to the ground - information, but the use of these tools results in decreased predictive power when compared to black box methods. CONCLUSIONS: Our findings translate into practical recommendations for tool usage and provide a reference framework for applying prediction tools in deep intronic regions, enabling more informed decision-making by practitioners. CI - (c) The Author(s) 2023. Published by Oxford University Press GigaScience. FAU - Barbosa, Pedro AU - Barbosa P AUID- ORCID: 0000-0002-3892-7640在进行尝试下载文献之前构建两个函数便于批量爬取信息。get_literature_id和get_detailed_info分别获取文献的PMID以及详细信息。 def get_literature_id(term, year):API_KEY Your AIP KEY# pdat means published date, 2020[pdat] means publised literatures from 2020/01/01 to 2020/12/31url_start fhttps://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi?dbpubmedapi_key{API_KEY}term{term}{year}[pdat]time.sleep(0.5)info BeautifulSoup(requests.get(url_start, timeout(5, 5)).text, html.parser)time.sleep(0.5)# translate str to intyear_published_count int(info.find(count).text)id_list [_.get_text() for _ in info.find_all(id)]for page in range(1, math.ceil(year_published_count/20)):url_page fhttps://eutils.ncbi.nlm.nih.gov/entrez/eutils/esearch.fcgi?dbpubmedapi_key{API_KEY}termpbmcANDsinglecell{year}[pdat]retmax20retstart{page*20}time.sleep(0.5)info_page BeautifulSoup(requests.get(url_page, timeout(5, 5)).text, html.parser)id_list [_.get_text() for _ in info_page.find_all(id)]return id_list, year_published_countdef get_detailed_info(id_list):API_KEY Your AIP KEY# PMID DOI PMCID Title Abstract Author_1st Affiliation_1st Journel Pulication_timeextracted_info []for batch in range(0, math.ceil(len(id_list)/20)):id_str ,.join(id_list[batch*20: (batch1)*20])detailed_url fhttps://eutils.ncbi.nlm.nih.gov/entrez/eutils/efetch.fcgi?dbpubmedapi_key{API_KEY}id{id_str}rettypemedlineretmodetexttime.sleep(0.5)detailed_info BeautifulSoup(requests.get(detailed_url, timeout(5, 5)).text, html.parser)literature_as_line_list detailed_info.text.split(\nPMID)[1:]for literature in literature_as_line_list:# PMIDpmid literature.split(- )[1].split(\n)[0]# DOIif [doi] in literature:doi literature.split([doi])[0].split( - )[-1].strip()else:doi # PMCIDif PMC in literature:pmcid literature.split(PMC -)[1].split(\n)[0].strip()else:pmcid # Titletitle re.split(r\n[A-Z]{2,3}\s, literature.split(TI - )[1])[0].replace(\n , )if \n in title:title title.replace(\n , )# Abstractabstract literature.split(AB - )[1].split( - )[0].replace(\n , ).split(\n)[0]# Author_1stauthor literature.split(FAU - )[1].split(\n)[0]# Affiliation_1sttmp_affiliation literature.split(FAU - )[1]if AD - in tmp_affiliation:affiliation tmp_affiliation.split(AD - )[1].replace(\n , ).strip(\n)else:affiliation # Journeljournel literature.split(TA - )[1].split(\n)[0]# Publication timepublication_time literature.split(SO - )[1].split(;)[0].split(. )[1]if : in publication_time:publication_time publication_time.split(:)[0]extracted_info.append([pmid, doi, pmcid, title, abstract, author, affiliation, journel, publication_time])return extracted_info爬取的部分结果如下图所示。有些文章没有DOI号不信的话可以尝试在PubMed中搜索该文章对应的PMID33604555看看~。 二、下载文献PDF文件 关于下载文献的PDF文件这里是从SciHub中爬取的不是从期刊官方部分文章可以没有被SciHub收录或者收录的预印版因此不能 保证上文中获取的信息就能从SciHub中全部下载成功。如果不能访问SciHub自然就不能爬取对应的内容了可以考虑买个VPN科学上网~。 爬取SciHub上的文章需要构建一个访问头的信息不然回返回403禁止访问。然后将获取的内容保存为PDF格式即可。其中从SciHub中爬取文献PDF文件参考了 用Python批量下载文献2 data pd.read_csv(/mnt/c/Users/search_result.csv) doi_data data[~data[DOI].isna()] doi_list doi_data[DOI].tolist() pmid_list doi_data[PMID].tolist() for doi, pmid in zip(doi_list, pmid_list):download_url fhttps://sci.bban.top/pdf/{doi}.pdf?#viewFitHheaders {User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/93.0.4577.63 Safari/537.36}literature requests.get(download_url, headersheaders)if literature.status_code ! 200:print(fthis paper may have not downloading permission, its doi: {doi})else:with open(f/mnt/c/Users/ouyangkang/Desktop/scraper_literature/{pmid}.pdf, wb) as f:f.write(literature.content)爬取结果如下图所示成功下载了199篇~这里的关键词不是机器学习提供的doi数量是522下载成功率为38%。 参考 .Pubmed official websity ↩︎ 用Python批量下载文献 ↩︎
http://www.hkea.cn/news/14421589/

相关文章:

  • 甘肃网站建设项目中国机械加工网18易5下2拉i
  • 做网站的大公司个人网站 创意
  • 莱州做网站的公司WordPress seo终极优化
  • 查看网站建设时间协策网络
  • 手机营销网站模板免费下载网站开发(源代码)
  • 中国建设工程造价管理协会网站简称怎么设计网站规划方案
  • 自做美食哪些网站设计图纸网站
  • 网站备案和域名备案有什么区别福州做网站开发需要多少钱
  • 济南川芎网站建设公司h5制作平台官网免费
  • 云南网站建设快速排名网站设计是不是会要用代码做
  • 沛县网站文山网站建设公司
  • 织梦做企业网站教程网站开发用什么工具好
  • 网站案例分析湖南全国疾病监测系统
  • 网站建设英文翻译江西专业网站建设
  • 做旅游景区网站wordpress wp_page_menu
  • 腾讯视频网站建设维护环保网站设计
  • 网站动态logo怎么做泰安网络平台
  • 做网站模板用什么框架关键字优化价格
  • 昆山教育云平台网站建设wordpress 链接微博
  • 网站管理有哪些免费静态网页模板下载
  • 淘宝联盟怎么建设网站交友app搭建
  • 茂名住房和城乡建设部网站网站建设免费制作
  • 俄语培训网站建设企信网企业信用信息系统官网
  • 最经济 网站建设江门网站开发多少钱
  • 免费照片的网站模板免费下载wordpress 支付接口
  • 衡水景县专业做淘宝网站公司襄阳专业网站建设公司
  • 网站制作怎样做网站建设参考文献资料
  • c 做彩票网站pre_get_posts wordpress
  • 网站设计app满城区建设局网站
  • 做交流网站做得不好的知名企业网站