94. 다음 중 트랜스포머 모델에 대한 설명으로 가장 적절한 것은?
가. 멀티 헤드 어텐션 기법을 사용할 수 있다.
나. 대표적인 트랜스포머 모델에는 RNN이 있다. 다. 인코더는 생성문장을 출력한다. 라. 인코더와 디코더로 구성된 모델이다. |
① 가, 나 ② 나, 다
③ 가, 라 ④ 다, 라
■ 해설
- 트랜스 포머 모델
- 모델이 다양한 "헤드"를 통해 입력 시퀀스의 여러 부분에서 정보를 병렬로 집중(attend)할 수 있게 하는
멀티 헤드 어텐션 기법은 트랜스포머 모델의 특징
- 트랜스포머 모델은 인코더와 디코더로 구성됨
- 트랜스포머 모델은 RNN(순환 신경망)을 사용하지 않음
- 인코더는 중간 표현인 임베딩을 생성하고 디코더가 생성문장을 출력함
- 인코더(Encoder) : 소스 시퀀스의 정보를 압축해 디코더로 보내는 역할
- 디코더(Decoder) : 인코더가 보내 준 소스 시퀀스 정보를 타킷 시퀀스를 생성

정답 : ③
95. BERT(Bidirectional Encoder Representation from Transformer)에 대한 설명으로 가장 적절하지 않은
것은?
① 위치 임베딩을 사용한다.
② 인코더와 디코더를 갖는다.
③ 트랜스포머 모델을 기반으로 한다.
④ 자연어 처리를 위한 딥러닝 아키텍처 중 하나이다.
■ 해설
- BERT(Bidirectional Encoder Representation from Transformer)
- 단어 순서와 위치 정보를 보정하기 위해 위치 임베딩을 사용
- BERT 는 트랜스포머 모델의 인코더 부분만 사용(단, 트랜스포머는 인코더-디코더 구조)
- BERT 는 트랜스포머 아키텍처 기반
- BERT 는 자연어 처리(NLP) 작업을 위해 설계된 딥러닝 아키텍처 중 하나
GPT
|
BERT
|
|
|
- GPT 는 트랜스포머의 인코더 부분만을 사용한 모델이고, BERT 는 트랜스포머의 디코더만을 사용한 모델

정답 : ②
공감과 댓글은 아이티신비에게 큰 힘이 됩니다.
블로그 글이 유용하다면 블로그를 구독해주세요.♥
'정보시스템 감리 기출해설 > 시스템 구조 해설' 카테고리의 다른 글
(제 25회) 시스템 구조 / (98)~(100) 해설 (0) | 2025.02.17 |
---|---|
(제 25회) 시스템 구조 / (96)~(97) 해설 (0) | 2025.02.16 |
(제 25회) 시스템 구조 / (92)~(93) 해설 (0) | 2025.02.14 |
(제 25회) 시스템 구조 / (90)~(91) 해설 (0) | 2025.02.13 |
(제 25회) 시스템 구조 / (88)~(89) 해설 (1) | 2025.02.12 |