Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- ICML
- simclr
- 딥러닝
- 인공지능
- Bidirectional Transformers for Language Understanding
- self supervised learning
- GAN # Label Smoothing
- Convolution Block Attention Module
- machine unlearning
- Deepfake
- class activation mapping
- Instance segmentation
- Semantic Segmentation
- contrastive learning
- FLOPS
- Swin Transformer
- multi head attention
- convnext
- boundary unlearning
- CBAM
- NLP
- You Only Look Once #YOLO
- NT-Xent(InFoNCE)
- Attention
- ConvNet
- mordernize
- DeepLearning
- Transformer
- ECCV
- BERT
Archives
- Today
- Total
목록딥러닝/NLP (1)
륵늘

정말 오랜만에 다시 글을 쓰려고 하는데 읽었던 논문들에 대해서 다시 천천히 정리를 해보려고 한다. 꾸준히 정말 열심히 해야겠따.. 다시 돌아와서 처음으로 정리하게 된 논문은 자연어처리 부분의 논문인 BERT이다. 정리를 시작해보자~~~~~!!!!! Abstract 새로운 Language representation model로 BERT라고 불린다. BERT는 Bidirectional Encoder Representations from Transformers의 약자이다. 최근 Language representaion model 들과 달리 BERT만의 특이한 특징이 있는데, 그는 바로 라벨링 되지 않은 텍스트로부터 pre-train deep bidirectinoal representations을 하고, 모든 ..
딥러닝/NLP
2023. 11. 8. 17:31