-
Notifications
You must be signed in to change notification settings - Fork 17
YOLOP 번역 #2
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
base: main
Are you sure you want to change the base?
YOLOP 번역 #2
Changes from 1 commit
File filter
Filter by extension
Conversations
Jump to
Diff view
Diff view
There are no files selected for viewing
Original file line number | Diff line number | Diff line change |
---|---|---|
|
@@ -15,26 +15,29 @@ featured_image_2: no-image | |
accelerator: cuda-optional | ||
demo-model-link: https://huggingface.co/spaces/pytorch/YOLOP | ||
--- | ||
## Before You Start | ||
To install YOLOP dependencies: | ||
<!-- ## Before You Start --> | ||
## 시작하기 전에 | ||
<!-- To install YOLOP dependencies: --> | ||
YOLOP 종속 패키지를 설치하려면: | ||
```bash | ||
pip install -qr https://github.com/hustvl/YOLOP/blob/main/requirements.txt # install dependencies | ||
``` | ||
|
||
|
||
## YOLOP: You Only Look Once for Panoptic driving Perception | ||
|
||
### Model Description | ||
### 모델 설명 | ||
|
||
<img width="800" alt="YOLOP Model" src="https://github.com/hustvl/YOLOP/raw/main/pictures/yolop.png"> | ||
| ||
|
||
- YOLOP is an efficient multi-task network that can jointly handle three crucial tasks in autonomous driving: object detection, drivable area segmentation and lane detection. And it is also the first to reach real-time on embedded devices while maintaining state-of-the-art level performance on the **BDD100K** dataset. | ||
<!-- - YOLOP is an efficient multi-task network that can jointly handle three crucial tasks in autonomous driving: object detection, drivable area segmentation and lane detection. And it is also the first to reach real-time on embedded devices while maintaining state-of-the-art level performance on the **BDD100K** dataset. --> | ||
- YOLOP는 자율 주행에서 세 가지 중요한 작업을 공동으로 처리할 수 있는 효율적인 다중 작업 네트워크 입니다.: 물체 감지(object detection), 주행 영역 분할(drivable area segmentation), 차선 인식(lane detection). 또한 YOLOP는 **BDD100K** 데이터셋에서 최신 기술(state-of-the-art)의 수준을 유지하면서 임베디드 기기에서 실시간성에 도달한 최초의 사례입니다. | ||
|
||
|
||
### Results | ||
### 결과 | ||
|
||
#### Traffic Object Detection Result | ||
#### 차량 객체(Traffic Object) 인식 결과 | ||
|
||
| Model | Recall(%) | mAP50(%) | Speed(fps) | | ||
| -------------- | --------- | -------- | ---------- | | ||
|
@@ -44,7 +47,7 @@ pip install -qr https://github.com/hustvl/YOLOP/blob/main/requirements.txt # in | |
| `YOLOv5s` | 86.8 | 77.2 | 82 | | ||
| `YOLOP(ours)` | 89.2 | 76.5 | 41 | | ||
|
||
#### Drivable Area Segmentation Result | ||
#### 주행 가능 영역 인식 결과 | ||
|
||
| Model | mIOU(%) | Speed(fps) | | ||
| ------------- | ------- | ---------- | | ||
|
@@ -53,7 +56,7 @@ pip install -qr https://github.com/hustvl/YOLOP/blob/main/requirements.txt # in | |
| `PSPNet` | 89.6 | 11.1 | | ||
| `YOLOP(ours)` | 91.5 | 41 | | ||
|
||
#### Lane Detection Result | ||
#### 차선 인식 결과 | ||
|
||
| Model | mIOU(%) | IOU(%) | | ||
| ------------- | ------- | ------ | | ||
|
@@ -83,21 +86,23 @@ pip install -qr https://github.com/hustvl/YOLOP/blob/main/requirements.txt # in | |
|
||
**Notes**: | ||
|
||
- In table 4, E, D, S and W refer to Encoder, Detect head, two Segment heads and whole network. So the Algorithm (First, we only train Encoder and Detect head. Then we freeze the Encoder and Detect head as well as train two Segmentation heads. Finally, the entire network is trained jointly for all three tasks.) can be marked as ED-S-W, and the same for others. | ||
<!-- - In table 4, E, D, S and W refer to Encoder, Detect head, two Segment heads and whole network. So the Algorithm (First, we only train Encoder and Detect head. Then we freeze the Encoder and Detect head as well as train two Segmentation heads. Finally, the entire network is trained jointly for all three tasks.) can be marked as ED-S-W, and the same for others. --> | ||
- 표 4에서 E, D, S, W는 인코더(Encoder), 검출 헤드(Detect head), 2개의 세그먼트 헤드(Segment heads) 와 전체 네트워크를 참조합니다. 그래서 알고리즘은 ED-S-W로 표기되며, 다른 알고리즘도 마찬가지입니다. (첫째, 인코더 및 검출 헤드만 교육합니다. 그 후, 인코더 및 검출 헤드를 동결하고 두 개의 분할(segmentation) 헤드를 학습합니다. 마지막으로, 전체 네트워크는 세 가지 작업 모두에 대해 함께 학습됩니다.) | ||
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. 원문에서는 아마 바로 전 문장에서 영어단어 표기를 위해 괄호를 많이 써서 그런거 같기도 합니다만.. 한번 같이 고민해보면 좋을듯합니다. 저라면 아래와 같이 적어두긴 할듯한데,, 영어 단어를 빼버리니 네이티브한 느낌이 사라지긴하네요..
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. 첫째, 인코더 및 검출 헤드만 |
||
|
||
### Visualization | ||
|
||
#### Traffic Object Detection Result | ||
### 시각화 | ||
|
||
#### 차량 객체(Traffic Object) 인식 결과 | ||
|
||
<img width="800" alt="Traffic Object Detection Result" src="https://github.com/hustvl/YOLOP/raw/main/pictures/detect.png"> | ||
| ||
|
||
#### Drivable Area Segmentation Result | ||
#### 주행 가능 영역 인식 결과 | ||
|
||
<img width="800" alt="Drivable Area Segmentation Result" src="https://github.com/hustvl/YOLOP/raw/main/pictures/da.png"> | ||
| ||
|
||
#### Lane Detection Result | ||
#### 차선 인식 결과 | ||
|
||
<img width="800" alt="Lane Detection Result" src="https://github.com/hustvl/YOLOP/raw/main/pictures/ll.png"> | ||
| ||
|
@@ -108,25 +113,30 @@ pip install -qr https://github.com/hustvl/YOLOP/blob/main/requirements.txt # in | |
|
||
### Deployment | ||
|
||
Our model can reason in real-time on **Jetson Tx2**, with **Zed Camera** to capture image. We use **TensorRT** tool for speeding up. We provide code for deployment and reasoning of model in [github code](https://github.com/hustvl/YOLOP/tree/main/toolkits/deploy). | ||
<!-- Our model can reason in real-time on **Jetson Tx2**, with **Zed Camera** to capture image. We use **TensorRT** tool for speeding up. We provide code for deployment and reasoning of model in [github code](https://github.com/hustvl/YOLOP/tree/main/toolkits/deploy). --> | ||
YOLOP 모델은 이미지를 캡처하기 위해 **Zed Camera**를 사용해 **Jetson Tx2**에서 실시간으로 추론할 수 있습니다. 속도 향상을 위해 **TensorRT**를 사용합니다. 모델의 배포와 추론을 위해 [github code](https://github.com/hustvl/YOLOP/tree/main/toolkits/deploy) 에서 코드를 제공합니다. | ||
|
||
|
||
### Load From PyTorch Hub | ||
This example loads the pretrained **YOLOP** model and passes an image for inference. | ||
<!-- ### Load From PyTorch Hub --> | ||
### 파이토치 허브로부터 모델 불러오기 | ||
<!-- This example loads the pretrained **YOLOP** model and passes an image for inference. --> | ||
이 예제는 사전에 학습된 **YOLOP** 모델을 불러오고 추론을 위한 이미지를 모델에 전달합니다. | ||
```python | ||
import torch | ||
|
||
# load model | ||
# 모델 불러오기 | ||
model = torch.hub.load('hustvl/yolop', 'yolop', pretrained=True) | ||
|
||
#inference | ||
# 추론(Inference) | ||
img = torch.randn(1,3,640,640) | ||
det_out, da_seg_out,ll_seg_out = model(img) | ||
``` | ||
|
||
### Citation | ||
### 인용 | ||
There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. 추론이나 차량객체는 영어 원어를 같이 붙여주셨는데, 이부분은 또 안붙여주셔서 혹시나해서 적어봅니다. :) There was a problem hiding this comment. Choose a reason for hiding this commentThe reason will be displayed to describe this comment to others. Learn more. 이 부분은 수정하도록 하겠습니다. |
||
|
||
See for more detail in [github code](https://github.com/hustvl/YOLOP) and [arxiv paper](https://arxiv.org/abs/2108.11250). | ||
<!-- See for more detail in [github code](https://github.com/hustvl/YOLOP) and [arxiv paper](https://arxiv.org/abs/2108.11250). --> | ||
더 자세한 내용은 [github code](https://github.com/hustvl/YOLOP)와 [arxiv paper](https://arxiv.org/abs/2108.11250)에서 볼 수 있습니다. | ||
|
||
If you find our paper and code useful for your research, please consider giving a star and citation: | ||
<!-- If you find our paper and code useful for your research, please consider giving a star and citation: --> | ||
본 논문과 코드가 여러분의 연구에 유용하다고 판단되면, star를 주는 것과 인용하는 것을 고려해 주세요: | ||
|
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
첫 문장을 요렇게 수정하면 더 읽기 편할 거 같아요!
YOLOP는 자율 주행에서 중요한, 다음의 세 가지 작업을 공동으로 처리할 수 있는 효율적인 다중 작업 네트워크입니다.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
교육
은 잘못 번역한 내용 같습니다. 전체적으로In table 4, E, D, S and W refer to Encoder~~
내용을 다시 수정해야 할 것 같습니다. 좋은 리뷰 감사합니다!수정해 주신 문장의 의미가 더 맞아 보입니다. 처음에
YOLOP에서 중요한 세 가지 작업
으로 번역한듯합니다. 다시 고려해 보니 제안해 주신 것처럼자율 주행에서 중요한 세 가지 작업
으로 번역해야 할 것 같습니다. 감사합니다.