一面
- 自我介绍,实习时间,22年可以嘛(22年看情况)
- 分词知道嘛jieba说一说(知道,维特比算法巴拉巴拉)
- 分词种新词发现怎么做?(几里哇啦扯了一堆)你说的好像和我不是一个东西,新词发现有哪些常用方法(啊。。。不知道)
- 维特比算法中的DAG知道吗,怎么构建的(知道,扯了一堆)
- 所以DAG怎么构建你没有说(构建。。?不是根据统计信息得到的嘛?不知道)
- 看你熟悉维特比算法,HMM知道不(知道的...(西麻哒!!))
- logP(O|A,B,pi)怎么变成只有ABpi的式子(啊这。。。扯了一堆,三个问题,参数估计,d-separated,动态规划(完全扯错了方向))
- 感觉你说的和我不在一个频道上(哭,真忘了,没想到会问这么细)
- 看你论文用了BERT,说一下BERT和transformer的positional embedding有啥区别(多了一个矩阵,多了一个dropout几里哇啦)
- 这个positional embedding怎么生成的(cos,sin生成的,相当于一个look up tabel)
- positional embedding公式写一下吧(啊,这个没背啊)
- sigmoid当数据太大的时候不敏感怎么办(normalization)
- 最后做个笔试,用np实现一个LSTM,初始化权0.5(啊,能不能写伪代码?)不能写伪代码,要跑出来。(啊这。。。我好多np函数用法没背下来怎么办)你让我有点惊讶,居然没记下来这些常用方法(啊这个sigmoid怎么调用来着?)你自己写(啊好的好的,还好记得公式)
- 能运行下不(可以,然后炸了)你这bug在哪你知道不(应该是矩阵搞炸了)是的,怎么改(矩阵操作函数名忘了)好吧我提醒一下,把math.exp改成np.exp(啊好的好的)你这又有一个bug(啊变量名写错了,改一下改一下)
- 跑通了,说一下思路吧(简单解释了下代码思路,理论应该是对的)
- 反问:表现如何?
- 反问:一共有几面
- 个人体会:铁凉凉,不用看了,这也太难顶了,手撕LSTM还问了一堆机器学习东西,本来是准备的论文,BERT,word2vec,结果都没问。这波死的及其惨烈~HMM,新词发现,这俩不熟,赶快补,还有coding能力不够,找机会多写代码!!!
二面
- 自我介绍,聊项目论文。
- BERT和RNN之类的区别(Auto Encoder与Auto regression,吧啦吧啦 )
- BERT的缺点,什么情况无法处理,双重否定,数值可以处理吗(应该不太明感)
- BERT的输入长度多少?(最大512) 超出怎么办(截断,数据预处理减少无关数据。实在太长直接上LSTM、Transforemer-XL)
- 实体抽取怎么做的,有了解吗?(没有具体做,但是大概知道上NER这一块的东西,其他不清楚了)
- 一个算法题,求一个大于等于输入的正整数的最小降序序列,比如,325->330, 4->4, 1234->2000, 4321->4321(20min没做出来,说了下思路,暴力递归)
- 个人体会:这个面试官又迟到10min,携程感觉不太守时,不喜欢,然后办公环境看起来也不太行,总的来说不太行。最后算法题没写出来,估计是凉了,不过这个面试官比上一个态度好很多。