상세 컨텐츠

본문 제목

Quantum Neural Networks (양자 신경망, 양자 머신러닝)

Machine learning

by South Korea life 2021. 8. 27. 16:50

본문

728x90
반응형

얼마 전, arxiv sanity 사이트에 접속해서 최근 hot한 논문들을 찾아보던 중, ‘Quantum Neural Networks: Concepts, Applications, and Challenges’란 논문이 눈에 들어왔습니다. Quantum computing이란 단어를 한두번 들어본적이 있고, IBM에서 이 분야에 대해 한번씩 성과를 내놓고 있는 것으로 알고있었는데, Quantum Neural Network(QNN)이란 건 도대체 뭘까란 생각이 들었습니다. 그래서, QNN의 기본 개념을 파악하기 위해, 해당 논문을 읽어봤습니다.

 

논문명: Quantum Neural Networks: Concepts, Applications, and Challenges

Arxiv 업로드 날짜: 2021.08.02.

 

Quantum Neural Network (QNN)

QNN은 Quantum computing을 활용한 Neural network 학습법으로 보입니다. 최근 기계학습 network들이 점차 대형화됨에 따라 많은 수의 parameter 학습이 필연적으로 따라오게되고, 이 학습을 빠르게 하는 방법론 중의 하나로 Quantum computing이 기계학습 분야에 접목된 것으로 보입니다. QNN은 Quantum computing을 먼저 이해해야 접목 및 응용이 가능한 것으로 보입니다. Quantum computing은 Quantum(양자)를 기본 단위로 연산이 수행되는 계산방법입니다. 현재의 일반적인 컴퓨터가 0과 1의 두가지 조합으로 정보를 표현하는 것에 비해, Quantum computing에서는 정보를 0과 1의 superposition으로써 표현합니다. (대학교 물리수업시간때 양자역학을 이해한다고 꽤나 힘들었던 기억이 납니다. 그 때도 이해하기 난해했었는데, 이런 양자역학이 computing에 접목될 것이라 생각도 못했습니다.) 이로인해, 더 적은 비트로 기존보다 더 많은 표현이 가능하게됩니다. Quantum computer의 대중화는 뛰어난 컴퓨터 성능을 일반인들에게 제공함으로써, 현재 heavy한 computing으로 인해 edge device로 처리하기 힘든 서비스들을 적은 비용으로 제공 가능할 것입니다.

일반 컴퓨터와 양자 컴퓨터의 데이터 처리 단위

 

QNN의 구조 및 데이터 처리

 1) 입력 데이터를 적절한 수의 qubit들의 qubit state로 encoding합니다

 2) Qubit state는 rotation gate들과 entangling gate들을 거치면서 변형됩니다

 3) 변형된 qubit state는 Pauli gate를 통과할 때 Hamiltonian operator의 기대값을 얻음으로써 상태를 확인합니다

 4) 적절한 출력 데이터 형태로 encoded된 데이터를 다시 decoding합니다

Quantum Neural Network의 구조 (source: Quantum Neural Networks: Concepts, Applications, and Challenges 논문)

 

Quantum Convolutional Neural Networks (QCNN)

Quantum circuits 상에 convolution layer와 pooling layer 구성합니다

 1) Rotation operator gate들을 통해 입력 데이터를 qubit state로 encoding

 2) Quasi-local unitary gate 기반의 convolution layer로 encoding된 qubit state를 feature map으로 filtering + Controlled rotation operator 기반의 pooling layer로 feature map을 downsize

 3) Qubit state가 특정 크기의 출력 데이터로 decoding

 

아쉽지만, 현재의 QCNN은 기존의 CNN보다 뛰어난 성능을 보여주지 못하고 있습니다. 하지만, 미래의 quantum computing 환경에서는 QCNN이 기존의 CNN보다 계산속도에서의 이점이 충분히 클것으로 예상됩니다. 

 

Challenges

- Gradient vanishing problem: 최근 network 구조는 대부분 깊은 구조입니다. Network을 학습시킬 시에, 나중 layer로 가면 갈수록 gradient 값이 점차 0에 가깝게되는데, 이러한 현상을 gradient vanishing problem이라고 말합니다. CNN에서는 이 부분을 해결하기 위해 ReLU와 같은 activation을 제시하였고, RNN계열에서는 LSTM이 제안되었습니다. QNN에서 이 부분은 아직은 open problem이라고 합니다.

- Quantum advantage: 아무래도 quantum computing이 적용되면 기계학습 전반으로 성능이 훨씬 좋아질 것이라는 기대감이 있습니다. 하지만, 현재도 quantum computing으로 인한 성능적 이점은 특정 조건에서하에서 만족되는 것이 확인되고 있기에, 아직까지 많은 투자와 연구, 그리고 그 결과들을 얻기까지의 인내가 필요하겠습니다.

 

오늘은 Quantum Neural Network에 대하여 간략히 살펴보았습니다. 해당 논문을 보면서 느낀점은, Quantum computing의 발전은 기계학습 분야와 다른 수리적 연산량이 많은 부분들이 연구나 개발에 있어 큰 진전의 밑바탕이 될것이란 생각이 들었습니다. 하지만, 이상과 현실의 괴리는 항상 존재하기에, 그러한 상황까지 가기에 아직까지 시간이 많이 필요할 것으로 보입니다. 끝으로 이번 글을 정리하면서, 유투브에서 참고로 보았던 동영상도 첨부해놓겠습니다. 

 

 

양자머신러닝 연구의 과거/현재와 미래 (KIAS 방정호 박사님)

 

728x90
반응형

관련글 더보기

댓글 영역