rnn 번역 예제

예를 들어”tom erblasste”가 “톰이 창백하게 변함”으로 올바르게 번역된 것을 볼 수 있습니다. 언어 생성에 관해서는, 기계 번역은 워드 레벨 또는 문자 수준에서 구현될 수 있다. 첫 번째 경우, 다음 단어는 단어의 이전 시퀀스를 감안할 때 예측됩니다. 두 번째 경우, 다음 문자는 이전 문자 시퀀스를 고려하여 예측됩니다. 문자 레벨에서 텍스트 생성에 대한 경험을 축적했기 때문에 문자 수준에서 기계 번역을 계속할 것입니다. 아마도 더 중요한 것은 제안된 접근 방식이 기존 구문 기반 통계 기계 번역에 필적하는 번역 성능을 달성했다는 것입니다. 제안된 아키텍처 또는 신경기계 번역의 전체 제품군이 올해만큼이나 최근에 제안된 것을 고려할 때 놀라운 결과입니다. 우리는 여기에 제안 된 아키텍처는 더 나은 기계 번역과 일반적으로 자연 언어의 더 나은 이해를 향한 유망한 단계라고 생각합니다. 우리는 또한 모델이 예상 “나는 응급 처치가 필요”대신 “나는 그들을 필요로”로 번역 “ich brauche erste hilfe”와 같은 추가 튜닝으로 고통을 수있는 몇 가지 가난한 번역과 좋은 사례를 참조하십시오. 기본 인코더-디코더와 이 접근 방식의 가장 중요한 구별 되는 특징은 전체 입력 문장을 단일 고정 길이 벡터로 인코딩하려고 시도하지 않는다는 것입니다. 대신 입력 문장을 벡터 시퀀스로 인코딩하고 변환을 디코딩하는 동안 이러한 벡터의 하위 집합을 적응적으로 선택합니다. 이렇게 하면 길이에 관계없이 소스 문장의 모든 정보를 고정 길이 벡터로 스쿼시할 필요가 없는 신경 번역 모델이 해제됩니다.

우리는 모델이 긴 문장에 더 잘 대처할 수 있음을 보여줍니다. 자동 기계 번역은 기계 학습 알고리즘에 대한 인기있는 주제였습니다. 결국, 기계가 주제를 감지하고 텍스트를 이해할 수 있다면 번역은 다음 단계일 뿐입니다. 실제 데이터로 이 작업을 수행하려면 몇 가지 사항을 다 수작업으로 처리했습니다. 예를 들어 다양한 입력 및 출력 문장(버킷 및 패딩 참조)을 처리하기 위해 해야 할 추가 작업이 있습니다. 희귀 단어를 올바르게 번역하는 문제도 있습니다. 평가에는 먼저 변환된 출력 시퀀스를 생성한 다음 많은 입력 예제에 대해 이 프로세스를 반복하고 여러 경우에 걸쳐 모델의 기술을 요약하는 두 단계가 포함됩니다. 모델링 변환에 적합한 데이터 집합이 있지만 필요한 모델의 크기를 크게 줄이고 모델에 맞게 조정하는 데 필요한 학습 시간을 줄이기 위해 문제를 약간 단순화합니다.

This entry was posted by in Uncategorized.