그동안 진행 되어 온 Deep learning Fundmental 강좌는 이 Transformer Model을 이해하기 위해 배운 것입니다.
AI, Machine learning, Deep Learning 개념부터 시작해서 Linear Neural Networks, Multilayer Perceptron, CNN, RNN 모두 ChatGPT를 만든 Transformer를 이해하기 위해 공부한 것입니다.
AI 센세이션을 일으켰던 ChatGPT는 과연 어떤 과정을 통해서 만들어 졌는지 알아보겠습니다.
Transformer의 핵심 개념은 Attention Mechanism 입니다. 이 Attention Mechanism에 대해서도 배워 보겠습니다.
'Catchup AI' 카테고리의 다른 글
DL-Basic-06 RNN : ChatGPT야 사실은 내가 니 친 할애비다... (0) | 2024.03.10 |
---|---|
DL Basic 05 - CNN 이 AI 혁명의 시발점 아닙니까? (3) | 2024.03.03 |
DL Basic 04 - Multilayer Perceptron : Deep learning의 Deep을 Deep하게 Dig 해 보자 (0) | 2024.02.28 |
DL Basic 03 - AI의 공부법 : 도대체 어떻게 공부를 하길래... (0) | 2024.02.26 |
DL Basic 02 - AI 시대 : 오래 다녀서 회사일을 잘 아는 나는 괜찮겠지? - 아닙니다 당신부터 짤립니다. (0) | 2024.02.17 |
DL Basic 01 - AI는 진짜 인간처럼 생각할까? - 속 시원히 알려 드릴께요 (0) | 2024.02.13 |