跳转至

[保研] 2025-信息学院

录入信息

审核 | 彭杰(162304124)

XMU保研经验分享

1. 文书材料

以下文书建议在大三寒假完成

简历: 一页版(建议这个),两页版 (每个学院准备五份简历

个人陈述:建议写2000字版,根据不同需要再进行压缩。一般准备800 1200 1500 2000字的个人陈述

联系导师邮件: 邮箱选择163(网易邮箱追踪)或者google(有邮件追踪功能 )、措辞要休整。

尊敬的李老师:
    您好! 感谢您百忙之中阅读我的自荐信。

    我叫xxx,是来自福州大学2021级计科专业的一名大三学生,前五学期绩点排名是是xxxxx。近两学期我的综合排名xxxx,自大二以来,我参与了大量的科研竞赛,获得过全国大学生数学建模竞赛国家二等奖等国家级奖项2项,省部级奖项7项,校级奖学金、荣誉、奖项等10余项。此外,我在大学期间参与了一个AI工作室,运用 Bert+LSTM 模型进行对爬虫来的文本进行双向解析,实现文本生成(小说续写),通过 Topk概率、重复惩罚、集束搜索等对生成方法优化,该项目与您的研究方向有所相似;另外,我作为负责人主持了一项大创项目《基于机器学习的高鲁棒性恶意流量识别算法》、参与了一项三维点云方向的项目,该点云项目获得了省级竞赛二等奖的荣誉;(简要介绍成绩、科研竞赛情况、详细的在附件的个人陈述里面介绍)

    我深知未来互联网是离不开AI的,在AI的热门方向中,我个人最感兴趣的是NLP、LLM等相关领域,这与您的主要研究方向较为一致。我知道贵实验室无论是老师还是学生都十分顶尖,因此我希望能够加入您的研究团队,与您共同探索该领域的前沿问题,并为学术界的进步贡献一份力量。(说明来意,以及对联系导师的方向感兴趣)

    我在附件中也添加了我的简历和个人成绩单,如果老师有兴趣,欢迎老师下载查阅。(附件记得备注清除)

    最后,再次感谢阅信,祝老师您身体健康,工作顺利,学术长青!

网络陶瓷信模板:

我是XXX大学XXX专业的XXX级本科生XXX,很抱歉占用老师您宝贵的时间。我目前正在准备保研申请,在我深入了解贵校及您的研究方向后,我对贵校的学术氛围和老师您的科研实力深感钦佩,因此我想咨询老师明年是否还有研究生/博士生/实习生名额,我非常希望能参与到老师的科研任务当中,希望在老师的指导下参与到高质量、高水平的科研工作中去。

在本科期间,我专注于XXX领域的学习和研究,并在XXX项目中进行了深入的实践。这段经历不仅培养了我的实际操作能力,还提升了我解决问题和分析复杂情况的能力。同时,我也积极参与了学术活动和科研项目,担任XXX职务,与同学们合作完成了一篇SCI论文的发表。这些经历让我深刻体会到科研的魅力和挑战,并坚定了我继续攻读研究生的决心。

我对您的研究方向有着浓厚的兴趣,尤其是您在XXX方面的研究。我认为您的研究成果在该领域具有重要的学术价值,并且与我本科期间的研究方向有着紧密的联系。我希望能够加入贵校的研究团队,与您共同探索该领域的前沿问题,并为学术界的进步贡献一份力量。

除了学术能力之外,我还具备良好的团队合作精神和沟通能力。在本科期间,我积极参与社团活动,担任过团队负责人,培养了自己的领导才能和组织能力。我相信这些优势将使我能够更好地融入贵校的研究环境,并与您和团队成员一起共同推动研究工作的进展。

【套磁的大学:例如清华大学】作为我国乃至全世界计算机领域首屈一指的学校,不仅有强大的科研实力和纯粹的科研环境,更有像您一样通才硕学、产学研结合的一线优秀导师,让我无比向往。我对计算机视觉领域很感兴趣,我希望在未来自己能从“道”的层面解释它,而不仅仅是从“术”的层面使用它。因此,我非常希望能进入您的课题组参与科研实习。在相关领域的研究中尽己所能、有所贡献。我也非常希望在明年保研中能成为您的学生。但在此之前,我想通过这封邮件请问老师是否有兴趣给我这个机会,如果可能的话,期待与您的进一步联系!我在附件中也添加了我的简历,如果老师有兴趣,欢迎老师下载查阅。

奖状整理:照片版、pdf版。提前扫描好所有的证件以及六级证明。

推荐信:自己写好然后给导师签字(可以分别针对不同老师的方向撰写不同的版本)

攻读计划:一般直博和一些要求较高的学校才需要

2. 推免专业课复习

408 + 数学(概率论、线代、高数)

XMU的夏令营面试只问了我简历上的项目经历,八股文一点没问,问了下其他同学也基本没问八股文。所以写到简历上的项目一定要很熟悉,更不能作假。

3. 项目复习

https://zhuanlan.zhihu.com/p/685760773 知乎nlp面试经验

可以从这几个方面复习 原理、创新点+贡献(自己做了哪些)+项目成果 多用一些可以量化的指标

4. 推免经验

好的一篇建议 + 绿裙 + 多关注一些公众号(保研岛xx)

https://zhuanlan.zhihu.com/p/659567441

院校选择(强弱com)

关注好时间信息,及时到对应官网查找信息以及各个学院不同分系的不同情况

可以试试电子信息学院,交叉学院等非计算机类学院,可能易于入营

强com

北大软微,北航CS/AI/软件,复旦,南大CS/AI/SE,人大高瓴/信院,中山,哈工大,同济电院,北师大AI,华科CS,西电

弱com:

北大智能/CS/信工,南开CS/软件西工大CS/软件/自动化西交东南CS/软件(入营需老师推荐,面试随机分组),厦大AI/信院华东师范CS/软件,天大智算,浙大软件,中科大信院/大数据/先研院/科学岛,武大国重/遥感等,以及所有直博

鸽穿的学校(入营即胜利):

东南软件,西交软件,北师大AI(撕优营),中山CS(年年穿,因为bar太高,对211不友好)

目标院校

xxxxxx

机试

厦大的机试题目,多来源于Acwing基础课,2024年夏令营信院机试较为简单,多是自定义排序,图论,树。把acwing基础课以及基础c++语法弄懂足够用。9推Ai院较难,多为DP,不过也是Acwing的板子题。

机试准备acwing基础课刷完+洛谷or力扣

有机试:中科大,北航CS/软件,北师大AI,华东师大CS,同济电院CS,中山CS,厦大AI/信院CS,武大CS/遥感,华科CS等

  • 北航:考察大模拟,60+40,第一题难度适中,建议在刷题的时候针对性
  • 北师大:第一题签到题,后面是ACM的题,按照ACM赛制
  • 华东师范:机试也是出了名的难,都是ACM的题
北师大机试题目:
1、输出给定区间内的回文素数
2、给定底数k和序号n,把k的所有幂及其任意组合(每种幂最多使用一次)从小到大排列,输出第n大的数。比如给定底数3,有1,3,1+3,9,1+9,1+3+9,给定n=5,输出是10
3、定义n种变换,比如2-6和4-5,意味着把数里面的2变成6,4变成5,然后把变换后所有可能的数进行计数。
4、模拟神经网络,每个结点给定权值和阈值。
北航机试题目:
1. 输入n组字符串,每组有两个字符串,定义从左边到右边字符串需要增/删的字符个数为修改次数,并记录下所有增/删的字符。(不考虑复杂情况,即仅有增/删中的一种情况)如coter computer 就是mpu,即3次修改,student stent 就是ud 即2次。将n组字符串按照修改次数从大到小进行输出,并且输出对应修改的字符串。即先输出coter computer       3 mpu ,再输出student stent 2 ud 
2、图相关,没有细看。大意是无向图找满足条件的所有点的最短距离和路径,排序后输出。
厦门大学机试题目:
1. while循环(思路明确)、
2. 求字符串字长(猜答案)、
3. 二维数组赋值与性质判断(不纠结个别测试点)

专业选择

专业代码(学硕):081200 计算机类 083500 软件工程 083900网络安全

专业代码(学硕):081000通信 081100控制科学与工程 140500 智能科学与技术(原0812Z2)

专业代码(专硕):085400电子信息(085404计算机技术 085405软件工程 085410 人工智能)

人工智能:学硕0811/0812都有,专硕085410

目标考公,计算机类要求0812的专业代码;0810/0811/0854基本只能三不限

目标就业,专硕0854和学硕0812没有区别,投0854更容易入营

目标科研,可以选择学硕(可以直接转博),直博(bar相对低,但是要考虑是否容易毕业),但大多数学校,学硕和专硕同样培养,关键看课题组的研究方向

一般来说 bar:学硕>专硕>直博(强导除外) CS≈AI>SE(华东师范除外)

英语面

  • 自我介绍
Good afternoon/morning, professors. it’s my great honor to be here for this interview. Now allow me to introduce myself briefly. My name is 【你的名字】, a junior form 【你的学校】, majoring in Artificial Intelligence/Computer Science.

In the past three years, I studied hard and achieved remarkable results. I ranked second【如果排名好看就说,排名不好看就不说】 in my major and won National Scholarship in 2021-2022 years【获得的一些奖学金什么的】. Additionally, I also participated in some competitions/research to efficiently use of spare time. I got 【列举你的奖项/论文什么的】. What’s more, 【详细介绍你觉得最加分的那个比赛/论文】. Lastly, I’d like to introduce my research interest. I focus on 【介绍你的科研兴趣】

【面试的学校:比如Shang Hai jiao tong university】 is the ideal platform I have long admired. Because I 【说你喜欢这个学校的原因,两句话即可】 Now I have a chance to apply for it, I want to seize this chance. If I could have the honor to study here, I will try my best in the next five exciting years!
Thank you very much for your time and attention.
  • 项目介绍
介绍论文/项目一般从项目名称,目的,主要内容(方法)和结果四个方面出发,以我复现的论文为例,我的英文项目介绍(仅供参考):

EnCodec is the SOTA model in audio compression based neural network. It was widely used in Music Generation, text to speech and other audio field. But we find the official codebase doesn’t provide the train script and the checkpoint is trained on many domain dataset, including high quality and low quality, clean and noise. This cause the reconstruction audio isn’t well. Based on these problem. I reproduced and retrain the EnCodec model under the guidance of Prof. Chen . When train the model, I add some tricks to accelerate training, such as distributed training, warmup, learning scheduler and so on. Finally, the model we retrained is better than official model in reconstruction audio quality.
  • 家乡介绍
3.5 介绍你的家乡 Can you tell me a little bit about your hometown?

[我觉得chatGPT写的比我好] Certainly! I come from Xi'an, a city with a rich history and cultural heritage in China. Xi'an is located in the northwestern part of the country and is the capital of Shaanxi Province.

Xi'an is renowned for its historical significance as it served as the capital of multiple ancient dynasties in China, including the Qin, Han, and Tang dynasties. One of the city's most famous attractions is the Terracotta Army, an incredible archaeological discovery consisting of thousands of life-sized clay soldiers and horses. It is truly a remarkable sight to behold.

Xi'an is also home to the ancient city walls, which are one of the best-preserved city walls in China. They offer a fantastic view of the city and are a popular spot for locals and tourists alike. Another iconic landmark is the Big Wild Goose Pagoda, a Buddhist pagoda that dates back to the Tang Dynasty. It's a symbol of Xi'an's cultural heritage and attracts many visitors.

I'm proud to call Xi'an my hometown, and I highly recommend visiting to experience its unique charm and immerse yourself in its rich cultural heritage.
  • 未来规划
3.6 为什么读博
I have always been passionate about academic research and pursuing a PhD would allow me to further pursue my research interests. Through a doctoral program, I can gain the necessary knowledge and skills to conduct in deep learning research. Additionally, I believe that obtaining a PhD will provide me with greater opportunities for career advancement and allow me to make a meaningful impact in my field.
  • 院校介绍

    • 本科院校

      3.4 介绍你的本科学校
      My undergraduate college is Xidian University. Located in Xi 'an, Shaanxi Province, Xidian University is administered by the Ministry of Education of China. Xidian focuses on electronics and information education and research.
      
    • 面试院校

      3.3 你对我们学校了解吗?/ 你能简单说说对我们学校的印象吗?
      
      【面试的学校:比如Shang Hai Jiao Tong university】 enjoys a rich faculty, full of professionally competent and high-caliber teachers. There is no doubt that I will learn a lot here. It is always my dream school, now I have a chance to apply for it, I want to seize this chance.
      

注意时间的把控,以及演讲的流利度。不要太在意内容,老师不一定听得懂你在讲什么。讲错了没关系,不要停太久。

语法结构简单,主要难度在于词汇量

可能的英语问题

  1. 基本

    自我介绍

    项目经历

  2. 日常相关:

    喜欢吃什么

    优缺点

  3. 稍微专业一点

    介绍一下你的学校

    阐述一下你得攻读方向

    为什么选择我们学校

项目面

主要是从简历中拓展的,侧重于对科研/项目经历本身提问。面试老师更关注你做的内容,基本就是围绕这些内容来提问,前提是自己做的,十分熟悉

竞赛(老师不一定能准确评估竞赛的含金量,自己解释获奖体现了什么能力

项目复习:三个项目 + AI论文阅读(nlp方向综述、transformer,bert,gpt)+顶会论文(nlp的话acl naacl nips emnlp iclr icml coling这种)+ 导师发的部分论文

5. AI面经

浅看一下,有个印象就行

5.1 机器学习、深度学习、与人工智能对比

  • 机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术

人工智能(人工智能是计算机科学的一个分支,它企图了解智能的本质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器)

分类: 弱人工智能(当前)、强人工智能、超人工智能

机器学习(MachineLearning)简称ML:机器学习属于人工智能的一个分支,也是人工智能的和核心。机器学习理论主要是设计和分析一些让计算机可以自动”学习“的算法。

深度学习(DeepLearning)简称DL。最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程。深度神经网络本身并不是一个全新的概念,可大致理解为包含多个隐含层的神经网络结构。为了提高深层神经网络的训练效果,人们对神经元的连接方法和激活函数等方面做出相应的调整。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,如图象、声音、文本

5.11 人工智能

人工智能(Artificial intelligence)简称AI。人工智能是计算机科学的一个分支,它企图了解智能的本质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

  • 人工智能目前分为弱人工智能和强人工智能和超人工智能:

  • 弱人工智能:弱人工智能(ArtificialNarrow Intelligence /ANI),只专注于完成某个特定的任务,例如语音识别、图象识别和翻译等,是擅长于单个方面的人工智能。它们只是用于解决特定的具体类的任务问题而存在,大都是统计数据,以此从中归纳出模型。由于弱人工智能智能处理较为单一的问题,且发展程度并没有达到模拟人脑思维的程度,所以弱人工智能仍然属于“工具”的范畴,与传统的“产品”在本质上并无区别。

2) 强人工智能:强人工智能(Artificial Generallnteligence /AGI),属于人类级别的人工智能,在各方面都能和人类比肩,它能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作,并且和人类一样得心应手。

  1. 超人工智能:超人工智能(Artificial Superintelligence/ASI),在几乎所有领域都比最聪明的人类大脑都聪明许多,包括科学创新、通识和社交技能。在超人工智能阶段,人工智能已经跨过“奇点”,其计算和思维能力已经远超人脑。此时的人工智能已经不是人类可以理解和想象。人工智能将打破人脑受到的维度限制,其所观察和思考的内容,人脑已经无法理解,人工智能将形成一个新的社会。

目前我们仍处于弱人工智能阶段

5.12 机器学习

机器学习(MachineLearning)简称ML。机器学习属于人工智能的一个分支,也是人工智能的和核心。机器学习理论主要是设计和分析一些让计算机可以自动”学习“的算法。

5.13 深度学习

深度学习(DeepLearning)简称DL。最初的深度学习是利用深度神经网络来解决特征表达的一种学习过程。深度神经网络本身并不是一个全新的概念,可大致理解为包含多个隐含层的神经网络结构。为了提高深层神经网络的训练效果,人们对神经元的连接方法和激活函数等方面做出相应的调整。深度学习是机器学习研究中的一个新的领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,如图象、声音、文本。

注意:你可能在接触深度学习的时候也听到过监督学习非监督学习半监督学习等概念,下面就顺便对这三个名词解析下:

  1. 监督学习:用一部分已知分类、有标记的样本来训练机器后,让它用学到的特征,对没有还分类、无标记的样本进行分类、贴标签。多用于分类。

  2. 非监督学习:所有的数据没有标记,类别未知,让它自己学习样本之间的相似性来进行分类。多用于聚类。

  3. 半监督学习:有两个样本集,一个有标记,一个没有标记。综合利用有类标的样本( labeled sample)和没有类标的样本( unlabeled sample),来生成合适的分类。

5.14 区别与联系

img点击并拖拽以移动

  • 人工智能的研究领域包括 专家系统(Expert Systems)、机器学习(Machine Learning)、模式识别进化计算(Evolutionary Computation)、模糊逻辑(Fussy Logic)、计算机视觉(Computer Vision)、自然语言处理(NLP)、推荐系统(Recommender Systems)
  • 深度学习,一种实现机器学习的技术。是机器学习中的一个方法或者分支。

  • 深度学习是用于建立、模拟人脑进行分析学习的神经网络,并模仿人脑的机制来解释数据的一种机器学习技术

  • 它的基本特点,是试图模仿大脑的神经元之间传递,处理信息的模式。最显著的应用是计算机视觉和自然语言处理(NLP)领域。显然,“深度学习”是与机器学习中的“神经网络”是强相关,“神经网络”也是其主要的算法和手段;或者我们可以将“深度学习”称之为“改良版的神经网络”算法。

  • 总结:人工智能是一个很老的概念,机器学习是人工智能的一个子集,深度学习又是机器学习的一个子集。机器学习与深度学习都是需要大量数据来“喂”的,是大数据技术上的一个应用,同时深度学习还需要更高的运算能力支撑,如GPU

img点击并拖拽以移动编辑

5.2 AI的分类

  • 模式识别

    • 模式识别是指用计算机对物体进行识别。

      物体指文字、符号、图形、图像、语音、声音等实体对象;

      不包括概念、思想、意识等虚拟对象,它们属于认知和哲学研究范畴。

    • 模式识别应用:

      文字识别,车牌识别,人脸识别,视网膜识别,指纹识别,掌纹识别等

  • 自然语言处理:用自然语言同计算机进行通讯的一种技术

    • 机器翻译
    • 语音识别(可以单列
    • 文本分类/预测
  • 机器学习(重点是深度学习):机器学习理论主要是设计和分析一些让计算机可以自动”学习“的算法

  • 计算机视觉:用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像

  • 智能机器人:给机器人装上“大脑芯片”,从而使其智能性更强,在认知学 习、自动组织、对模糊信

    息的综合处理等方面将会前进一大步

  • 自动程序设计:自动程序设计是指根据给定问题的原始描述,自动生成满足要求的程序

  • 数据挖掘:从大量的数据中搜索隐藏在其中信息的过程

  • 专家系统

5.3 一些深度学习概念

监督学习基础定义

有监督学习 (Supervised Learning): 使用已经标注的数据训练模型,目的是让模型学会如何将输入映射到期望的输出。例如,使用一组已知类别的图片来训练一个图像分类模型,模型学习如何根据输入的图片预测正确的类别 。

无监督学习 (Unsupervised Learning): 不使用任何标注数据,让模型自己发现数据中的结构和模式。例如,聚类算法可以将数据分为几个不同的组,而不事先告诉模型应该有多少组,或者各组的特征 。

半监督学习 (Semi-Supervised Learning): 结合有监督和无监督学习的方法,使用少量标注数据和大量未标注数据共同训练模型。这种方法在标注数据难以获得但未标注数据丰富的场景下特别有用 。 例如:医学影像,大部分没有标签,人工打标较为昂贵。可以用

  • 使用已标注数据训练一个分类器。
  • 用该分类器对未标注数据进行预测,生成伪标签。
  • 选择置信度最高的伪标签来扩充训练集。
  • 结合原始的标注数据和带有伪标签的数据重新训练分类器

自监督学习 (Self-Supervised Learning): 一种特殊的无监督学习方法,通过自动生成伪标签来训练模型。这种方法通过创建预测任务(如预测未来的帧、填充缺失的部分、一个自监督学习模型可以通过尝试预测句子中缺失的单词来学习语言的语法和词汇等),使模型能够从输入数据本身学习有用的表示 。 通常是预训练+下游任务的方式。

对比

  • 有监督学习通常需要大量的标注数据,适用于标注数据充足的任务。
  • 无监督学习不需要标签,适用于探索数据内在结构和关系的任务。
  • 半监督学习结合了有监督和无监督的优点,适用于标注数据有限但无标签数据多的情况。
  • 自监督学习则是一种新兴的方法,它能够从未标注的数据中学习到有用的特征表示,适用于标注数据难以获得但需要丰富特征表示的任务。

半监督学习举例

  • 使用已标注数据训练一个分类器。
  • 用该分类器对未标注数据进行预测,生成伪标签。
  • 选择置信度最高的伪标签来扩充训练集。
  • 结合原始的标注数据和带有伪标签的数据重新训练分类器

对比预训练

对比预训练是一种自监督学习方法,其核心目标是通过学习区分不同数据之间的相似性和差异性来提升模型的特征表示能力。这种方法不依赖于人工标注的数据,而是通过定义一种或多种对比任务(比如区分不同图像、文本或声音等),使得模型能够自动学习到数据的内在特征和结构。对比预训练通过比较正样本对(相似)和负样本对(不相似)来优化模型,使模型能够捕捉到数据中有用的信息和模式,从而在没有大量标注数据的情况下也能有效提升模型性能 。

在NLP和CV等领域,对比学习已经成为一种重要的自监督学习方法通过自监督预训练模式,模型可以从数据本身的先验知识分布中吸取图像或文本的特征,得到一个能够更好地适应不同任务和领域的预训练模 。这种方法的优势在于无需大量标注数据,同时可以显著提高模型的泛化性能和学习能力

平行语料库

平行语料库是收录了某一源语言文本及其对应的目标语文本的语料库。具体来说,平行语料库包括以下内容:

  • 源语言和目标语言的对应文本:这些文本在语义上是相同的,只是用不同的语言表达,如英文原版和中文翻译版。
  • 对齐的层面:平行对齐指的是源语文本和目标语文本之间的具体单位的对应关系或翻译关系,可以细分为词汇、语句和段落等层面的对齐。
  • 类型:根据所涉及的语种数量和方向,平行语料库可以分为单向平行语料库、双向平行语料库和多向平行语料库。
  • 应用:平行语料库对于语言对比、双语词典编纂、机器翻译、翻译策略与规范研究等都具有很高的应用价值。

总的来说,平行语料库不仅为机器翻译提供了必要的数据支持,也是推动相关领域发展和进步的重要驱动力。随着科技的不断进步和全球化的深入发展,平行语料库将在未来发挥更加重要的作用

联合学习joint study

联合学习(Joint Learning)是一种机器学习范式,它涉及同时训练多个模型或任务,以便它们可以共享知识或参数,从而提高整体的学习效率和泛化能力

在联合学习中,不同的模型或任务之间存在一定的关联性,这种关联性可以是因为它们处理相似的数据类型,或者因为它们解决的是相关的子问题。通过联合学习,这些模型可以相互促进,提高各自的性能。以下是一些关键点:

  • 模型组合:在联合学习中,一个大模型由多个小模型组成,这些小模型可以独立训练,也可以与其他模型一起联合训练。
  • 多任务学习:联合学习与多任务学习(Multi-Task Learning)有相似之处,多任务学习也是让一个模型同时学习多个任务,并且在学习过程中共享参数。这样做的好处是可以利用任务之间的相关性来提升模型的泛化能力。
  • 应用领域:联合学习在自然语言处理(NLP)领域有广泛的应用,例如,可以通过联合模型来同时处理语法分析和语义理解等任务。
  • 端到端学习:在某些情况下,联合学习还涉及到端到端的训练方法,这意味着从输入到输出的整个流程都被整合在一个学习过程中,以此来优化整体性能。

总的来说,联合学习是一种强大的学习方法,它通过整合多个相关任务或模型的学习过程,能够提高学习效率和模型的泛化能力。这种方法在处理复杂问题时特别有用,因为它可以有效地利用不同任务之间的共同信息。

5.4 衡量模型好坏的一些指标

F1 score 精确率precision 召回率re-call

img点击并拖拽以移动

img点击并拖拽以移动

IOU mIOU

img点击并拖拽以移动

机器学习20道

  1. 网络配置时batchsize的大小怎样设置?过小和过大分别有什么特点? 小的不稳定 大的速度快

    • 大的batchsize 减少训练时间,提高稳定性。 这是肯定的,同样的epoch数目,在性能允许情况下,大的batchsize需要的batch数目减少了,所以可以减少训练时间。另一方面,大的batch size梯度的计算更加稳定,因为模型训练曲线会更加平滑。
    • 过大的batchsize 泛化能力下降。而过大的批量大小会导致收敛速度变慢,并且可能需要更多的内存 在一定范围内,增加batchsize有助于收敛的稳定性,但是随着batchsize的增加,模型的性能会下降
    • 同样是通过对训练步数的影响,小的batch_size使模型迭代次数增多,提前到达拟合点,但是epoch没结束,继续学习训练数据,容易导致过拟合于原始数据
  2. 设置学习率衰减的原因?

    学习率衰减是为了让学习率随着训练过程逐渐减小,有助于模型在接近全局最优解时减小步长,避免在优化过程中跳过最佳点或产生不必要的波动

  3. 有哪些分类算法?

    朴素贝叶斯、逻辑回归、K 最近邻 (KNN)、支持向量机 (SVM)、决策树、随机森林和神经网络

  4. 分类和回归的区别?

    分类预测离散标签,将数据分类为两个或多个类别。回归预测连续量,估计变量之间的关系

  5. 请描述下k-means聚类的过程?

    k-means聚类是一种迭代算法,首先随机选取k个初始中心点,然后将每个点分配到最近的中心点形成的簇中,接着重新计算每个簇的中心点,重复此过程直到中心点不再变化或达到预设的迭代次数

  6. 训练集、测试集、验证集的作用?

    数据集的作用:训练集用于训练模型验证集用于调整超参数并在训练过程中提供无偏评估,测试集用于评估模型的泛化性能

    1. 评估偏差: 如果我们直接根据测试集调整超参数,那么测试集就不再是独立的评估数据集。这意味着我们无法准确地估计模型在新数据上的性能,因为测试集已经被用来调整模型了。
  7. 请讲解一下k折交叉验证?

    在 k 折叠交叉验证中,数据被划分为 k 个子集。每次,将 k 个子集中的一个用作测试集,并将其他 k-1 子集放在一起形成一个训练集。该过程重复 k 次,每个 k 个子集恰好用作测试集一次

  8. 分类和聚类的区别?

    分类是监督学习任务,需要标注数据来训练模型;聚类是无监督学习任务,不需要标注数据,目的是发现数据内在的结构或模式。

  9. 描述一下梯度的概念?

    梯度是导数的多变量推广,表示函数最快增长的方向和速率。在优化中,它用于查找函数减小最快的方向。

    eg:

    例如,考虑二元函数 f(x, y) = x^2 + y^2。我们可以计算它的梯度:

    1. 计算偏导数:∂f/∂x = 2x,∂f/∂y = 2y
    2. 在点 (x0, y0) = (1, 1) 处,梯度向量为:∇f(1, 1) = [21, 21] = [2, 2]

    因此,在点 (1, 1) 处,梯度向量指向 [2, 2] 方向,且函数在该方向上的增长率最大,为 √(2^2 + 2^2) = √8 ≈ 2.83。这意味着在点 (1, 1) 处,函数 f(x, y) = x^2 + y^2 沿着 [2, 2] 方向增长最快,且每单位距离增长 2.83。

  10. 有监督学习、无监督学习和半监督学习的区别?

    见 5.1 节

  11. 带核的SVM为什么能分类非线性问题?

    非线性问题的 SVM:SVM 可以通过使用内核技巧将输入空间转换为更高维的空间来对非线性问题进行分类,从而更容易线性分离数据。

  12. 请描述常见的梯度下降方法?

    常用的方法包括批量梯度下降、随机梯度下降 (SGD) 和小批量梯度下降,用于计算损失函数梯度的数据量不同。

    批量梯度下降、随机梯度下降(SGD)和小批量梯度下降是梯度下降优化算法的三种不同实现方式,它们在机器学习和深度学习中被广泛使用来优化模 型的参数。具体介绍如下

    • 批量梯度下降:它在每次迭代时使用所有的训练样本来计算梯度并更新模型参数。这种方法可以确保每次迭代都沿着全局最优方向更新,因此收敛曲线通常比较平滑。然而,当数据集非常大时,每次迭代的计算成本会非常高,导致训练速度变慢。
    • 随机梯度下降:它在每次迭代时只使用一个训练样本来计算梯度并更新模型参数。这种方法的优点是计算速度快,可以快速进行模型更新,特别适用于大数据集。但是,由于每次更新只基于一个样本,可能会导致收敛过程波动较大,不一定能收敛到全局最优解。
    • 小批量梯度下降:它介于批量梯度下降和随机梯度下降之间,每次迭代使用一小部分训练样本(即小批量)来计算梯度并更新模型参数。这种方法既保留了批量梯度下降的稳定收敛特性,又具有随机梯度下降的快速计算优势。因此,小批量梯度下降在实践中被广泛应用,尤其是在深度学习模型的训练中。

    总的来说,这三种方法都是梯度下降的变体,目的是通过迭代更新模型参数以最小化损失函数。批量梯度下降使用所有数据,收敛稳定但计算成本高;随机梯度下降使用单个样本,计算快但可能波动大;小批量梯度下降折中了前两者的特点,使用部分数据,既稳定又相对高效。

  13. Adam、RMSprop、Adagrad、Momentum优化算法?

    AdamRMSprop 和 Stochastic Gradient Descent 的思想与动量相结合。它动态调整每个参数的学习率。RMSprop 在训练期间调整学习率,而 Adagrad 通过将学习率缩放为与梯度的所有过去平方值的平方根成反比来调整学习率。动量有助于加速新元朝相关方向发展。

    此方法是在梯度下降的基础上加入了“惯性”的概念,即考虑了历史梯度对当前梯度的影响,使得更新过程具有一定的连续性,并能够加快学习速度,减少振荡。Momentum 通过使用动量项来对网络参数进行平滑处理,有助于使梯度的摆动幅度变小,从而加快收敛速度。

  14. 什么是过拟合?怎么解决过拟合问题?

    过拟合是指模型在训练数据上表现良好但在新数据上泛化能力差的现象。

    解决过拟合的方法包括增加数据量、减少模型复杂度、使用正则化技术和集成学习方法等。

  15. 怎样解决梯度消失/爆炸问题?

    含义

    1. 梯度消失:在深度神经网络的反向传播过程中,梯度可能会因为多层连续的乘法操作而变得非常小,以至于权重几乎不会被更新,导致训练过程提前停止。这种现象通常发生在激活函数选择不当(如使用sigmoid或tanh函数)且网络层次较深的情况下。
    2. 梯度爆炸:与梯度消失相反,梯度爆炸是指梯度值变得非常大,以至于导致模型参数更新过于频繁和巨大,从而使得模型无法收敛到一个稳定的解。梯度爆炸通常是由于梯度值在反向传播过程中连续乘以较大的数而累积起来的。

    如何解决?

    • 选择合适的激活函数避免使用容易饱和的激活函数,如sigmoid或tanh,转而使用ReLU(Rectified Linear Units)及其变种Leaky ReLU、Parametric ReLU等,它们在输入值较大时不会饱和,有助于缓解梯度消失问题。
    • 批量归一化(Batch Normalization):通过对每一层的输入进行归一化处理,保持输入数据的均值为0、方差为1,有助于稳定梯度变化,防止梯度消失和爆炸。
    • 残差连接(Residual Connections):在深度网络中使用残差连接,即让前一层的输出直接加到后续某层的输入上,可以保证梯度能够绕过一些层直接传回,从而缓解梯度消失问题。
    • 梯度裁剪(Gradient Clipping):通过设置一个阈值来限制梯度的最大值,可以有效防止梯度爆炸。
    • 优化器选择:使用具有自适应学习率调整能力的优化器,如Adam、RMSprop等,可以在不同情况下自动调整学习率,减少梯度消失或爆炸的风险。
    • 短程记忆结构:对于循环神经网络(RNN),可以使用长短时记忆(LSTM)或门控循环单元(GRU)这类结构来代替传统的RNN结构,因为它们能够更好地捕捉长距离依赖关系,从而缓解梯度消失问题。
    • 正则化技术:如L1/L2正则化,也可以帮助控制模型参数的规模,间接地减小梯度爆炸的可能性。
  16. 讲解下神经网络反向传播算法?

    反向传播算法:反向传播是人工神经网络中使用的一种方法,用于计算单个输入输出示例的损失函数相对于网络权重的梯度,从而使用梯度下降更新权重。

  17. 激活函数的作用是什么?有哪些激活函数?它们的表达式分别是?

    激活函数作用:引入非线性因素,使得神经网络可以学习和模拟任何复杂的函数和数据分布,这样网络就能处理非线性问题。如果没有激活函数,无论神经网络有多少层,输出都只是输入的线性组合,这大大限制了网络的表达能力和复杂度。

    常见的激活函数包括 Sigmoid、Tanh、ReLU:(需要去了解一下基本原理)

  18. 请讲解一下正则化的概念?L1正则化是什么?L2正则化是什么?

    正则化是机器学习和统计学中用于防止模型过拟合的一种技术。过拟合是指模型在训练数据上表现得很好,但在未见过的新数据上表现不佳的现象,通常是因为模型过于复杂,学习到了训练数据中的噪声和细节,而不是潜在的数据生成规律。正则化通过在模型训练的损失函数中添加一个额外的惩罚项来解决这个问题,该惩罚项会惩罚模型的复杂度

    • L1正则化(也称为Lasso正则化)通过向损失函数添加参数的绝对值之和作为惩罚项来工作。L1正则化倾向于产生稀疏参数,即许多参数会变成零,这可以用于特征选择。

    • L2正则化(也称为Ridge正则化)通过向损失函数添加参数的平方和作为惩罚项来工作。与L1正则化不同,L2正则化倾向于使参数非常小但不完全为零,从而保持所有特征但减少其影响。

    • 在某些情况下,人们可能会同时使用L1和L2正则化,这种方法被称为弹性网络正则化。

    • 正则化技术不仅限于线性模型,它们也广泛应用于神经网络、决策树和其他类型的机器学习模型中。在神经网络中,除了L1和L2正则化外,还有如Dropout正则化等特殊形式的正则化技术,它通过在训练过程中随机丢弃一部分神经元来防止过拟合。

  19. 除了BatchNormalization还有其他什么方法来加速模型训练吗?

    1. 使用半字训练(半精度浮点数)
    2. 合理的超参数设计:选择合适的batch size、epoch数量和学习率策略对于加速模型训练至关重要。较小的batch size可以加快单次迭代的速度,而适当的epoch数量和学习率调整可以帮助模型更快地收敛。
    3. 增大batch size:虽然增大batch size可以提高训练速度,但过大的batch size可能会影响模型的泛化性能和收敛速度。因此,需要根据具体情况选择合适的batch size大小。
    4. 多GPU分布式训练:通过使用多个GPU进行模型并行或数据并行训练,可以显著提高模型的训练速度。模型并行是将模型的不同部分分配给不同的计算设备,而数据并行则是将数据集分割成多个子集,每个子集在不同的计算设备上进行处理。
    5. 模型压缩与加速技术:包括参数剪枝、参数量化、紧凑网络设计、知识蒸馏、低秩分解、参数共享等方法。这些技术旨在减少模型的大小和复杂性,从而提高训练和推理的速度。
    6. 使用预训练模型:在相似任务上使用预训练模型可以显著减少训练时间,因为预训练模型已经学习了大量的特征,只需要对顶层进行微调即可。
    7. 人应该先爱自己,再去爱其他人。谈恋爱平等,不会主动去追得,相互换位思考,不要总是一味地要求别人。这个跟喜欢程度没有关系,是跟观念有关系而已,不要把观念强加在别人身上。
    8. 要求别人前,自己先做到,不要双标,说着不喜欢别人怎么做,自己却怎么做。
  20. 机器学习中,为何要经常对数据进行预处理?

    处理噪声、缺失值、降维、结构化非结构化处理

    1. 处理缺失值与噪声:数据中可能存在缺失值,预处理可以包括填补或删除这些缺失值,以确保数据的完整性。
    2. 无量纲化:不同特征可能具有不同的量纲和规模,无量纲化处理可以消除这种差异,使得模型能够更公平地评估每个特征的重要性。
    3. 数据规范化:通过最值归一化或Z-Score规范化等方法,将数据缩放到特定的范围内,有助于加快模型的收敛速度。
    4. 特征工程:数据预处理是特征工程的一部分,它包括数据清洗、特征提取、特征选择和特征构造等子问题。通过这些步骤,可以创建出能够使机器学习算法达到最佳性能的特征。
    5. 提高模型性能:干净且经过恰当处理的数据可以帮助算法更准确地学习模式和关系,从而提高模型的性能。
    6. 增强模型泛化能力:通过正则化等预处理方法,可以防止模型过拟合,提高其在新数据上的泛化能力。

版权声明 © 本网站内所有文章著作权归作者所有,禁止转载。