본문 바로가기 메뉴 바로가기

DO log

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

DO log

검색하기 폼
  • 분류 전체보기 (7)
    • ML (1)
    • DeepLearning (3)
      • NLP (2)
    • 작업 환경 (3)
      • python (1)
      • git (0)
    • 대학원 (0)
  • 방명록

attention (1)
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

앞서 Paper Review 했던 것들... (정리가 깔끔하진 않음) Abstract BERT는 라벨링되지 않는 텍스트 문서의 context를 파악하기 위해 bidirectional 한 모델이다. pre-trained BERT 모델은 output layer를 추가해 fine-tune하는 것만으로 광범위한 task에서 SOTA를 달성했다. 1. Introduction pre-training 언어모델은 많은 자연어 처리 task의 향상에 효과적이었다. down-stream task를 위해 pre-trained 언어 표현을 사용하는 방식은 두가지 전략이 있다: feature-based, fine-tuning 접근 방식 feature-based 접근 방식: ELMo fine-tuning 접근 방식: GPT pr..

DeepLearning/NLP 2022. 2. 8. 17:12
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • bert
  • LM
  • Python
  • nlp
  • 딥러닝
  • .py
  • github
  • git
  • attention
  • syntax
  • 모듈
more
«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바