建设公司网站都需要什么,竞价账户托管哪家好,自己办网站审批流程,系统开发包括什么序言
阳历生日。今年因为年过得早的缘故#xff0c;很多事情都相对提前了#xff08;比如情人节#xff09;。往年过生日的时候基本都还在家#xff0c;所以一家子出去吃个饭也就罢了。今年承蒙凯爹厚爱#xff0c;正好也有小半年没聚#xff0c;他前天也刚正式拿到offe…序言
阳历生日。今年因为年过得早的缘故很多事情都相对提前了比如情人节。往年过生日的时候基本都还在家所以一家子出去吃个饭也就罢了。今年承蒙凯爹厚爱正好也有小半年没聚他前天也刚正式拿到offer于是狠狠地宰了他一顿哈哈srds下个月他过生日还得还回去。
难得跟人一逛老半天从乳山四村到正大广场吃完饭再回来一路上交换见解与心得从九点多一直到晚上六点多才走凯爹的阅历让我受益颇多。我其实很羡慕凯爹这样的人每一个能从二战走出来的都是勇士中的勇士就是那种生活很有激情并且目标明确矢志不渝这两个词我觉得是越来越难能可贵。
回来这些天除了泡实验室每天还是至少会去遛五圈前天浅浅地跑了5000米其实也不是很吃力。说起来差不多停跑了有十天相当致命不过我发现因为这么多年来屡屡从低谷恢复训练身体已经习惯了这种节奏至少今年开始恢复的时候跑起来还是挺轻快的虽然耐力明显很差但也没有那么笨重。
初心难追但是谁又愿意就如此屈服于生活呢 20230216
因果推断之遐想今年NSFC的通告里着重强调了这个方向严格上来说这是一个统计学范畴但是他越来越受到ML以及DM领域的关注原因在于数据中难免存在难以捕获的偏见。
最近一篇非常好的CasualLM: Causual Model Explanation Through Counterfactual Language Models提出了一种基于反事实构造的反事实语言模型可以修整数据中固有的偏见。
但是现阶段因果推断和NLP的结合的工作大多是基于现有的因果图做检验会调整其实有一个很关键的核心问题是如何捕获混杂因子在没有因果图的情况下一些工作会介绍如何从复合变量中分离得到混杂变量以及调整变量如http://www.meng-jiang.com/pubs/tee-aaai17/tee-aaai17-paper.pdf与https://arxiv.org/abs/arXiv:2006.07040但是这些工作也是建立在因果图已知候选的变量已经给定的前提下得到的一般的情况是只给你上下文语料如何判断一个基于该语料的任务存在混杂因子。
其实在预训练数据是足够充分的条件下我们应当认可模型预测的结果是无偏的。问题在于预训练数据总是不够充分的所以我们需要构造反事实来使得它更为均衡。还有就是Pearl的因果推断理论框架是完全建立在因果图之上的问题在于没有任何理论保证因果图的有效性这在因果推断与NLP结合时确实是令人费解的事情这就有点射箭画靶的意思为了论证存在混杂特意构建了一个能够导出混杂的因果图。 20230217~20230220 昨天颜烨即兴约我和王凯小聚在很久以前羊肉串就很巧颜烨最近也在看因果推断不过他是用在推荐上于是在等王凯时交换了不少意见。吃完去政民路上的一家小酒吧搓了两把以色列麻将最后险些完成华丽的逆转7张牌反杀颜烨2张牌就是有1张怎么想都出不去狗颜烨手气贼好把把起手百搭我两把一个百搭都没摸不到笑。下个月19号锡马说实话把握不是很大但是目标肯定还是要进95分钟其实说起来我已经有14个月没有跑过20km以上的距离了。恢复期目前练了六天但是周末歇了两天今天是2km1km1km的间歇配速4分整间歇5分钟心率上到190痛苦得要死但是要快速恢复就必须依赖高强度的变速和间歇耐力还得靠跑量堆上去。目前水平持平去年九月底想要跑半马至少也要达到去年十一月底的水平。就过往的经验来看只要能把10km跑到43分钟左右基本上在最佳状态下就有能力冲击半马。说实话也许是我最后一次跑步了我也确实地感觉到各种压力而无法坚持下去也许赶不上最后的一次校运会仍是遗憾无比除非我愿意能够在高压下坚持训练到4月底以后大概率是以养生跑为主。尽管大概率还是不能在最巅峰的状态下完成比赛但跑一次半马是最后的倔强虽然以后有机会我也许会去跑全马跑铁三但是我不愿意自己这么三年多以来的阶段性跑步生涯就如此无疾而终它应该配得上一个荣誉作为句号。 谈谈我对chatGPT的看法昨天也跟yy和wk探讨了这个问题。其实去年十一二月的时候就已经可以在B站上刷到不少chatGPT大战弱智吧的视频当时我也不是很关注总觉得是跟以前那种废话文学生成器是一样的toy model。直到今年一月搞科技部课题申报的时候事实上接触chatGPT时才真正震惊于其恐怖的性能。
现在网络上的评价趋于两级分化有的人奉chatGPT为神有的人对之嗤之以鼻。就我浅薄的认知而言假若chatGPT的背后确实没有任何人类技术员的干预或者说白了就是人工作弊我认为chatGPT将是一个划时代的产物以2017年BERT横空出世作对比chatGPT的创新性至少比BERT要高出一个档次。
因为就我所理解chatGPT在许多NLP任务上问答、对话、代码改错、目标文本生成、自然语言推断、阅读理解、文本综述都远远超过了目前相应领域SOTA模型的性能。具体的细节我也不想写太多因为我是做这方面工作的这种效果让我非常震惊。
以前说强AI会取代很多工作现在看来强AI的出现第一批失业的或许就是我们这批踩着末流踏进AI研究的就有点像49年假如guo军的感觉苦笑。试想你针对一个特定任务的做的模型做得再好也比不过chatGPTchatGPT在广度和深度上已经超过了大部分研究者的上限这是一件非常可怕的事情。很多大企业追逐潮流就会对业务和人员进行结构性调整谁又能确保之后不会出现第二个chatGPT呢特别特别有危机感。说实话保守估计我觉得国内近一年不可能有产品可以超越chatGPT。
所以现在很多的想法就是去做chatGPT做不了的事情即要跳出NLP比如图像、推荐等如果还是要和NLP挂钩那么要么在方法论上创新要么只能向多模态发展。这可能也是为什么因果推断成为今年NSFC的一个重要突出领域。
提一个写开题看到VisualMRC一开始以为就是VQA结果VisualMRC竟然是所有的上下文就是一张图像不过图像中包含区块性的文字以及贴图VQA是直接给一张图可能会有简短的描述然后直接答题。VisualMRC提出的动机是因为大部分现实世界文本都不是以纯文本出现的比如PDF和HTML所以只能处理包含文本的图片不过总觉得只是用OCR识别一下即可划归到一般的VQA感觉又是为了发paper画靶射箭。