Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- Transformer
- boundary unlearning
- CBAM
- DeepLearning
- 인공지능
- ConvNet
- Swin Transformer
- ECCV
- multi head attention
- class activation mapping
- self supervised learning
- You Only Look Once #YOLO
- machine unlearning
- simclr
- NT-Xent(InFoNCE)
- convnext
- Convolution Block Attention Module
- Semantic Segmentation
- NLP
- Attention
- Instance segmentation
- 딥러닝
- Bidirectional Transformers for Language Understanding
- GAN # Label Smoothing
- mordernize
- Deepfake
- FLOPS
- ICML
- BERT
- contrastive learning
Archives
- Today
- Total
목록BERT (1)
륵늘

정말 오랜만에 다시 글을 쓰려고 하는데 읽었던 논문들에 대해서 다시 천천히 정리를 해보려고 한다. 꾸준히 정말 열심히 해야겠따.. 다시 돌아와서 처음으로 정리하게 된 논문은 자연어처리 부분의 논문인 BERT이다. 정리를 시작해보자~~~~~!!!!! Abstract 새로운 Language representation model로 BERT라고 불린다. BERT는 Bidirectional Encoder Representations from Transformers의 약자이다. 최근 Language representaion model 들과 달리 BERT만의 특이한 특징이 있는데, 그는 바로 라벨링 되지 않은 텍스트로부터 pre-train deep bidirectinoal representations을 하고, 모든 ..
딥러닝/NLP
2023. 11. 8. 17:31