Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- BFS
- 그래프 이론
- 강화학습
- CNN
- two-stage detector
- 딥러닝
- dynamic programming
- r-cnn
- image processing
- real-time object detection
- YoLO
- eecs 498
- One-Stage Detector
- MinHeap
- dfs
- 백준
- Mask Processing
- machine learning
- 머신러닝
- Reinforcement Learning
- MySQL
- deep learning
- ubuntu
- LSTM
- AlexNet
- Python
- DP
- opencv
- C++
- NLP
Archives
- Today
- Total
목록brevity penalty (1)
JINWOOJUNG

NLP에서 기계 번역의 성능이 얼마나 뛰어난가를 측정하기 위해 사용되는 평가지표 중 하나가 BLEU(Bilingual Evaluation Understudy)이다. 오늘은 BLEU를 계산하는 방법에 대해 알아보자. BLEUBLEU는 기계 번역 결과와 사람이 직접 번역한 결과가 얼마나 유사한지 비교하여 번역 성능을 측정하는 방법이다. BLEU 점수는 아래 3가지 주요 요소를 기반으로 계산된다.n-gram Precision : 예측 문장에서 참조 문장과 겹치는 n-gram의 비율(1~4 gram)Clipping : 같은 n-gram이 중복으로 등장할 경우, 참조 문장에서 등장한 최대 횟수까지만 Precision 계산에 반영Brevity Penalty(BP) : 예측 문장이 너무 짧아 Precision만으로 ..
NLP, LLM, Multi-modal
2025. 4. 25. 15:12