결론부터 말하자면 범위의 차이입니다. AI라는 분야 안에 ML이 있는 것이고 또 그 안에 DL이 있는 것입니다. 시각화하면 아래와 같습니다. AI (인공지능) - Artificial IntelligenceAI란 Artificial intelligence의 줄임말로 그대로 말하자면 인간의 지능을 인공지능으로 만든 것입니다.AI의 종류하위 집합에 속하지 않는 대표적인 AI는 규칙 기반 인공지능이 있습니다. 규칙 기반 인공지능은 인간이 사전에 학습한 정보를 토대로 미리 규칙을 정의해놓는 것입니다. 모델은 이 규칙에만 의존하며 정답을 내놓습니다. 예를 들어 인간이 모델에게 "두발로 걸어다니면 사람, 네발로 걸어다니면 강아지"라는 규칙만을 입력하였다고 하면 모델은 두발로 걸어다니면 무조건 사람, 네발로 걸어다니..
전체 글
·논문리뷰
1편에 이어 작성합니다. 아래 링크를 남겨두었으니 1편을 보고 오시는 것을 추천드립니다! https://chlduswns99.tistory.com/56 [논문리뷰]Transformer: Attention Is All You Need [1]이번 논문은 그 유명한 Transformer입니다. Transformer는 기존의 RNN, CNN 기반 모델들에서 벗어나 오직 Attention 기법만을 이용해 설계했습니다. 현재 GPT, BERT 같은 널리 쓰이는 모델의 근간이 되는 아키chlduswns99.tistory.com 이해를 돕기 위해 이미지를 다시 불러오겠습니다. 3.1. Encoder and Decoder Stacks먼저 인코더입니다.인코더의 layer는 여러개 중첩해서 사용할 수 있습니다. 본..
·논문리뷰
이번 논문은 그 유명한 Transformer입니다. Transformer는 기존의 RNN, CNN 기반 모델들에서 벗어나 오직 Attention 기법만을 이용해 설계했습니다. 현재 GPT, BERT 같은 널리 쓰이는 모델의 근간이 되는 아키텍처입니다. 또한 대부분의 언어 모델들은 Transformer를 기반으로 작동한다 해도 과언이 아닙니다. 기존의 방식들은 단어를 순차적으로 연산하는 직렬 연산으로 작동했습니다. 이러한 방식은 연산 시간이 매우 오래 걸린다는 치명적인 단점이 있습니다. 하지만 Transformer는 Attention만을 사용하여 문장 자체를 한 번에 입력하는 방식으로 병렬 연산으로 작동합니다. 이는 GPU를 효과적으로 사용할 수 있고 연산 시간 또한 획기적으로 단축되는 결과를 가져왔습니다..
·논문리뷰
이번 논문도 파괴적 망각이라 불리는 Catastrophic forgetting에 관련된 논문입니다. 이에 대한 내용은 아래 포스팅을 참고해 주세요!https://chlduswns99.tistory.com/51 Catastrophic forgetting(파괴적 망각)이란?Catastrophic forgetting (파괴적 망각)파괴적 망각이란 사전 학습을 마친 모델이 추가 학습을 진행할 때 이전의 지식을 잃어버리는 현상을 말합니다.즉, Task A를 학습한 모델이 Task B를 학습하면 Task A에chlduswns99.tistory.com Abstract & Introduction 요약 및 정리 파괴적 망각을 해결하기 위해 본 논문에서는 DGR 기법을 제안했습니다. 기존의 Replay-based 방식은 ..