91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊自然語言處理面試問題

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:ink ? 2020-11-03 18:02 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

師兄在騰訊,就讓師兄內(nèi)推了一下騰訊自然語言處理的實(shí)習(xí)。在內(nèi)推前,簡(jiǎn)單把李航的統(tǒng)計(jì)學(xué)習(xí)方法,簡(jiǎn)歷涉及的知識(shí)點(diǎn)都過了一遍,整理了一下,同時(shí)leetcode刷了大概100題。 準(zhǔn)備過后就把簡(jiǎn)歷給師兄了。投完簡(jiǎn)歷當(dāng)天下午就收到了騰訊的短信約晚上面試(這也太效率了= =)。下面簡(jiǎn)單記錄一些面試的問題(很多問題都是項(xiàng)目涉及的知識(shí)點(diǎn),每個(gè)人可能都不一樣)。

一面(技術(shù)面) 基本就是把簡(jiǎn)歷過了一遍,問問一些項(xiàng)目上的細(xì)節(jié)。

1、先簡(jiǎn)單自我介紹一下吧。
2、看你之前實(shí)習(xí)過,說說當(dāng)時(shí)實(shí)習(xí)都做了些啥。
3、介紹一下transformer吧,除了self-attention還知道哪些attention。
4、看你用了反向翻譯,簡(jiǎn)單介紹一下吧,除了這個(gè)還知道哪些數(shù)據(jù)擴(kuò)充的方法嗎,每個(gè)方法有什么區(qū)別?
5、介紹一下R2L-Rerank吧。
6、講一講bert,roberta吧,BPE和word piece有什么區(qū)別?
7、介紹一下FGM。
8、介紹一下Focal loss。
9、python的迭代器和生成器。
10、算法題:打印二叉樹從右邊看能看到的節(jié)點(diǎn)。 一面還算順利結(jié)束后第二天就接到了二面的電話。

二面(技術(shù)面) 基本也是把項(xiàng)目比賽過一遍,然后問一些細(xì)節(jié)。
1、簡(jiǎn)單介紹一下自己吧。
2、介紹一下AUC吧,和準(zhǔn)確率有啥區(qū)別。
3、介紹一下F-score,Macro-F1和micro-F1有啥區(qū)別。
4、bert如果輸入超過512怎么辦。
5、那你介紹一下transformer-xl吧。
6、如果你自己訓(xùn)練輸入長度為1024的bert,使用的顯存會(huì)是原來的幾倍。
7、你在投的論文做的是什么,介紹一下,看你是用fairseq框架寫的,具體修改了哪些模塊。
8、算法題:最長上升子序列。
9、用過單機(jī)多卡或者多機(jī)多卡訓(xùn)練嗎?講一講。
10、你有什么要問我的嗎? 二面也比較順利,第二天就接到了三面的電話。

三面(技術(shù)面) 我當(dāng)時(shí)看面經(jīng)別人都是兩面,我居然有三面= = ,三面應(yīng)該是一個(gè)leader面的。
1、之前實(shí)習(xí)是負(fù)責(zé)什么的,大概開發(fā)的流程是什么樣的。
2、你做的這些項(xiàng)目是偏實(shí)驗(yàn)的的還是有一定的工業(yè)落地的,比如做了一個(gè)網(wǎng)站或者api等。
3、你們平常打比賽的時(shí)候,隊(duì)伍是怎么合作的?
4、你做的項(xiàng)目里的公開數(shù)據(jù)集你知道是怎么采集的嗎?它會(huì)不會(huì)有很多臟數(shù)據(jù)?這些臟數(shù)據(jù)對(duì)模型有什么影響?你是怎么處理它們的?
5、有看過模型的bad case嗎?針對(duì)bad case做了哪些提升?
6、系統(tǒng)地介紹一下你研究的這個(gè)方向。最近你這個(gè)方向效果最好的論文是哪篇?它是怎么做的?
7、你有什么想問的嗎?

三面沒有算法題,感覺問的是一些方法論的東西。答得也還不錯(cuò),沒過幾天就接到了HR的電話。 HR面 HR很親切,面試體驗(yàn)很棒,上來先給我介紹了一下他們部門的一些發(fā)展歷史和現(xiàn)在的情況,然后了解了一下我的實(shí)驗(yàn)室,實(shí)驗(yàn)室的研究方向,之前的實(shí)習(xí)情況,大概詢問了可以入職的時(shí)間。整個(gè)面試下來感覺平時(shí)的積累很重要,之后有空了也準(zhǔn)備把之前整理的資料慢慢寫成博客。

責(zé)任編輯:xj

原文標(biāo)題:騰訊自然語言處理實(shí)習(xí)面經(jīng)

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 騰訊
    +關(guān)注

    關(guān)注

    7

    文章

    1684

    瀏覽量

    50910
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14667
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    292

    瀏覽量

    13987

原文標(biāo)題:騰訊自然語言處理實(shí)習(xí)面經(jīng)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    解鎖谷歌FunctionGemma模型的無限潛力

    在智能體 AI 領(lǐng)域,工具調(diào)用能力是將自然語言轉(zhuǎn)化為可執(zhí)行軟件操作的關(guān)鍵。此前,我們發(fā)布了專門針對(duì)函數(shù)調(diào)用而特別優(yōu)化的 Gemma 3 270M 模型版本 FunctionGemma。該模型旨在協(xié)助開發(fā)者構(gòu)建響應(yīng)快速且具高性價(jià)比的智能體,以將自然語言轉(zhuǎn)化為可執(zhí)行的 API
    的頭像 發(fā)表于 02-04 11:30 ?327次閱讀
    解鎖谷歌FunctionGemma模型的無限潛力

    自然語言處理NLP的概念和工作原理

    自然語言處理 (NLP) 是人工智能 (AI) 的一個(gè)分支,它會(huì)教計(jì)算機(jī)如何理解口頭和書面形式的人類語言。自然語言處理將計(jì)算
    的頭像 發(fā)表于 01-29 14:01 ?362次閱讀
    <b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>NLP的概念和工作原理

    采購60個(gè)面試問題和參考答案

    得了解供應(yīng)商對(duì)你所下訂單的完成狀況,同時(shí)要求供應(yīng)商停止訂單的生產(chǎn)。根據(jù)供應(yīng)商的反饋來決定處理。若供應(yīng)商還未進(jìn)行訂單的正式生產(chǎn),可與供應(yīng)商協(xié)調(diào)取消此單,請(qǐng)其幫忙將所訂原材料用于其它產(chǎn)品的生產(chǎn)。若供應(yīng)商已進(jìn)行了生產(chǎn)
    的頭像 發(fā)表于 11-21 15:37 ?2216次閱讀
    采購60個(gè)<b class='flag-5'>面試問</b>題和參考答案

    云知聲論文入選自然語言處理頂會(huì)EMNLP 2025

    近日,自然語言處理(NLP)領(lǐng)域國際權(quán)威會(huì)議 ——2025 年計(jì)算語言學(xué)與自然語言處理國際會(huì)議(EMNLP 2025)公布論文錄用結(jié)果,云知
    的頭像 發(fā)表于 11-10 17:30 ?803次閱讀
    云知聲論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會(huì)EMNLP 2025

    HarmonyOSAI編程自然語言代碼生成

    安裝CodeGenie后,在下方對(duì)話框內(nèi),輸入代碼需求描述,將根據(jù)描述智能生成代碼,生成內(nèi)容可一鍵復(fù)制或一鍵插入至編輯區(qū)當(dāng)前光標(biāo)位置。 提問示例 使用ArkTs語言寫一段代碼,在頁面中間部分
    發(fā)表于 09-05 16:58

    北斗生態(tài)環(huán)境監(jiān)測(cè)站:讀懂自然的 “語言

    北斗生態(tài)環(huán)境監(jiān)測(cè)站:讀懂自然的 “語言”柏峰【BF-BDQX】當(dāng)生態(tài)監(jiān)測(cè)遇上北斗技術(shù),一場(chǎng)關(guān)于 “精準(zhǔn)守護(hù)自然” 的變革正悄然發(fā)生 ——北斗生態(tài)環(huán)境監(jiān)測(cè)站以北斗定位導(dǎo)航系統(tǒng)為核心
    的頭像 發(fā)表于 09-04 10:59 ?503次閱讀
    北斗生態(tài)環(huán)境監(jiān)測(cè)站:讀懂<b class='flag-5'>自然</b>的 “<b class='flag-5'>語言</b>”

    【HZ-T536開發(fā)板免費(fèi)體驗(yàn)】5- 無需死記 Linux 命令!用 CangjieMagic 在 HZ-T536 開發(fā)板上搭建 MCP 服務(wù)器,自然語言輕松控板

    引言:為什么需要 “自然語言控板”? 痛點(diǎn)引入 :嵌入式開發(fā)中,開發(fā)者常需通過 SSH 等工具登錄開發(fā)板,手動(dòng)輸入復(fù)雜的 Linux 命令(如ls -l、gpio readall、ifconfig等
    發(fā)表于 08-23 13:10

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級(jí)會(huì)議

    近日,計(jì)算語言學(xué)與自然語言處理領(lǐng)域全球頂級(jí)會(huì)議ACL 2025及語音研究領(lǐng)域旗艦會(huì)議INTERSPEECH 2025相繼公布論文錄用結(jié)果。思必馳-上海交大聯(lián)合實(shí)驗(yàn)室表現(xiàn)亮眼,共有13篇論文被兩大會(huì)議收錄!
    的頭像 發(fā)表于 07-11 16:24 ?924次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級(jí)會(huì)議

    人工智能浪潮下,制造企業(yè)如何借力DeepSeek實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型?

    DeepSeek,憑借其強(qiáng)大的深度學(xué)習(xí)和自然語言處理能力,能夠理解復(fù)雜問題并提供精準(zhǔn)解決方案。它不僅能夠作為學(xué)習(xí)、工作、生活的助手,滿足用戶在不同場(chǎng)景下的需求,更能在制造業(yè)中發(fā)揮重要作用。通過自然語言交互,用戶無需學(xué)習(xí)復(fù)雜的操作
    的頭像 發(fā)表于 05-29 16:17 ?650次閱讀

    云知聲四篇論文入選自然語言處理頂會(huì)ACL 2025

    近日,第63屆國際計(jì)算語言學(xué)年會(huì)ACL 2025(Annual Meeting of the Association for Computational Linguistics,簡(jiǎn)稱ACL)論文接收
    的頭像 發(fā)表于 05-26 14:15 ?1310次閱讀
    云知聲四篇論文入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b>頂會(huì)ACL 2025

    小白學(xué)大模型:從零實(shí)現(xiàn) LLM語言模型

    在當(dāng)今人工智能領(lǐng)域,大型語言模型(LLM)的開發(fā)已經(jīng)成為一個(gè)熱門話題。這些模型通過學(xué)習(xí)大量的文本數(shù)據(jù),能夠生成自然語言文本,完成各種復(fù)雜的任務(wù),如寫作、翻譯、問答等。https
    的頭像 發(fā)表于 04-30 18:34 ?1305次閱讀
    小白學(xué)大模型:從零實(shí)現(xiàn) LLM<b class='flag-5'>語言</b>模型

    自然語言處理的發(fā)展歷程和應(yīng)用場(chǎng)景

    你是否曾經(jīng)對(duì)著手機(jī)說:“嘿,Siri,今天天氣怎么樣?”或者在出國旅行時(shí),打開翻譯軟件,對(duì)著菜單說:“請(qǐng)把這道菜翻譯成英文”。
    的頭像 發(fā)表于 04-17 11:40 ?1327次閱讀

    東芝硬盤如何優(yōu)化存儲(chǔ)

    當(dāng)自然語言處理、推薦系統(tǒng)和圖像識(shí)別同時(shí)開跑,每個(gè)任務(wù)的訓(xùn)練速度呈指數(shù)級(jí)下降,大量時(shí)間浪費(fèi)在等待數(shù)據(jù)加載上。像極了早高峰擠地鐵——誰都別想快!
    的頭像 發(fā)表于 04-11 11:17 ?975次閱讀

    自然語言提示原型在英特爾Vision大會(huì)上首次亮相

    在英特爾Vision大會(huì)上,Network Optix首次展示了自然語言提示原型,該方案將重新定義視頻管理,為各行各業(yè)由AI驅(qū)動(dòng)的洞察和效率提速。
    的頭像 發(fā)表于 04-09 09:30 ?963次閱讀

    ?VLM(視覺語言模型)?詳細(xì)解析

    視覺語言模型(Visual Language Model, VLM)是一種結(jié)合視覺(圖像/視頻)和語言(文本)處理能力的多模態(tài)人工智能模型,能夠理解并生成與視覺內(nèi)容相關(guān)的自然語言。以下
    的頭像 發(fā)表于 03-17 15:32 ?8828次閱讀
    ?VLM(視覺<b class='flag-5'>語言</b>模型)?詳細(xì)解析