티스토리 뷰

주간 HOT 7

8월 1주 Technology & Industry HOT 7

봄이왔어요 2018. 7. 30. 23:25

2018년 8월 첫째 주, 세계 미디어를 뜨겁게 달궜던 기술 및 창업 소식 7개를 에티가 전해드립니다.

1. 스마트자전거/전동킥보드 공유 스타트업 Lime 600만 사용 돌파

2. 소셜 로봇 Kuri의 생산 중단

3. Google Cloud Next 2018 - AutoML Natural Language와 AugoML Translate 공개

4. 구글의 본격적인 칩 시장 진출

5. 미국 국방성 DARPA, 반도체 칩 설계 기술 혁신을 위한 6가지 과제 발표

6. 첫 양자 컴퓨터 기반 제품, ColdQuanta

7. UCLA연구진, 광학적 구조체를 통해 뉴럴넷을 구현하다.

1. 스마트자전거/전동킥보드 공유 스타트업 Lime 600만 사용 돌파

얼마 전 필자는 캘리포니아 전역을 한달 간 여행하고 돌아왔습니다. 기사로만 수없이 접했던 Uber와 Lyft도 실제로 처음 이용해보았고, 인공지능 비서는 이미 많은 집에서 충실히 역할을 수행하고 있는걸 볼 수 있었습니다. 


한 가지 눈에 띄었던 생소한 서비스 중 하나는 시내, 바닷가 어느 곳에나 공공 전동킥보드가 덩그러니 놓여있는 모습이었습니다. Lime, Bird 등 여러 디자인과 서비스로 도시의 사용자들에게 더 편리하고 빠른 이동수단을 제공하는 모습이었습니다.



GV, Uber 및 기타 업체들로부터 3억 3500만 달러의 자금을 조달받은 스마트 자전거 및 전동 킥보드 공유 스타트업 Lime은 지난 6월 출시된 이래 600만 건의 라이드를 기록하였다고 합니다. 이처럼 수많은 VC들은 전동 킥보드 스타트업에 수십만 달러를 투자하는 데 돈을 아끼지 않고 있습니다. Lyft도 스마트자전거와 전동 킥보드에 대한 야망을 숨기지 않았고, Uber는 위에서 언급한 바와 같이 Lime 킥보드에 Uber의 상표를 붙이기 위한 협상의 일환으로 이번 투자를 주도한 것으로 보입니다. 노스캐롤라이나 주의 그린즈버러에서 처음 런칭한 Lime은 현재 미국 70개 도시에서 지역사회를 더 촘촘하게 연결하는 간편한 이동수단으로 자리잡고 있습니다.



영상처럼 마치 거리에서 이동수단을 주워서 이용한 뒤, 마치 아무 일도 없었다는 듯이 다시 거리에 놔두고 갈 길을 가면 되는 편리함 덕분에 Lime의 전동킥보드는 올해 3월부터 6월까지 샌프란시스코에서 30만 번의 운행을 마쳤습니다. 캘리포니아의 또다른 도시 샌디에고에서도 5개월 만에 100만 번의 운행이 이뤄졌다고 합니다. 


작년 10월 중국의 공유자전거 체험기를 소개한 적이 있었죠. 중국만큼 넓은 땅덩어리와 지역마다 다른 기후조건을 가진 미국에서도 구글맵 상으로는 가까워 보이지만 실제로는 절대 그렇지 않다는 것을 다시 한 번 몸소 느꼈습니다. 그 속에서 우리가 다양한 이동수단과 공존하며 살아가는 미래를 기대해봅니다.


2. 소셜 로봇 Kuri의 생산 중단

소셜로봇은 Next big thing 중 하나로 거론되는, 사람들의 많은 기대를 모으고 있는 분야 중 하나입니다. 그러나 그 기대와 성원에도 불구하고 아직은 SF영화에서 쉽게 찾아 볼 수 있는 대중화된 개인 서비스 로봇이 나오기는 쉽지 않아 보입니다. 많은 기대를 모으고 출발했던 로봇 Kuri를 제작하는 Mayfield가 로봇 생산을 중단하기로 결정했다는 안타까운 소식입니다. 



실리콘밸리를 기반으로 하는 회사 Mayfield Robotics는 2015년 보쉬(Bosch)의 스타트업 플랫폼 중 하나로 시작되었습니다. 이듬해 CES2016에서 가정용 로봇을 선보였는데요, 2년 정도 걸리긴 했지만 2017년 하반기에 귀여운 로봇 Kuri를 출시하는 데 성공했습니다.


Kuri는 귀여운 외모 뿐 아니라, 다른 소셜 로봇 및 가정용 로봇과는 다르게 언어가 아닌 비언어적 소통 방식(끄덕임, 눈 깜빡임, 소리 등)을 채택하여 새로운 인터랙션을 보여주었는데요. 개인적으로 인터랙션에 대한 기대치만 높히고 실질적으로 그 수준의 서비스를 제공하지 못하던 당시의 AI 에이전트 로봇보다 훨씬 설득력 있는 방향의 인터랙션이라고 생각했는데, 현실은 그렇지 않았던 것 같습니다.


후원자들을 향한 이번 메세지의 내용으로 보아, 보쉬는 당사의 포트폴리오를 넓혀가는 방향을 찾지 못한 것으로 보입니다. Mayfield는 “시작부터 보쉬의 혁신적인 기술을 가장 잘 활용할 수 있고 확장 가능한 방향을 찾기 위해 최선을 다했다.”라고 하였으며, “보쉬의 스타트업 플랫폼은 기존 보쉬의 비즈니스 유닛과 통합되는 방향으로 나아가는데, 그 안에서 보쉬의 비즈니스 방향을 찾을 수 없다는 판단이 들었다.”라고 전해왔습니다.



Kuri 뿐 아니라, 가정용 로봇은 아직까지 히트작을 내지 못해 커다란 시장의 흐름을 만들어내고 있지는 못하고 있습니다. 높은 가격과 제한적인 기능 때문인데요. 보쉬가 최선의 노력을 다했음에도 불구하고, 앞이 불투명한 상황에서 가정용 로봇 사업을 지속하기는 어려웠을 것으로 보입니다. 


Kuri의 생산 중단에도 불구하고, Mayfield는 "가정용 로봇의 시대가 이제 막 찾아왔으며, 그 미래는 엄청날 것이라 믿는다."고 전했습니다. 과연 그들의 말대로 가정용 로봇의 시대가 곧 도래하게 될까요? 생산 중단이라는 비극을 딛고, 앞으로 더 많은 기업들의 수많은 시도 끝에 서비스 로봇과 가정용 로봇 시대가 멋지게 열렸으면 좋겠습니다.


3. Google Cloud Next 2018 - AutoML Natural Language와 AugoML Translate 공개

지난 7월 24일부터 26일까지 미국 샌프란시스코에서 진행된 Google Cloud Next 2018의 소식을 요약해서 알려드리겠습니다.



인공지능(AI) 개발 방식에는 텐서플로(TensorFlow)와 같은 오픈소스 프레임워크를 활용하는 법, AWS와 같은 클라우드 컴퓨팅 서비스가 제공하는 API를 활용하는 법 등이 있습니다. 하지만 이러한 AI 대중화를 위한 거물급 기업들의 노력에도 불구하고, AI를 실질적으로 활용할 수 있는 인력과 예산이 충분하지는 않은 것이 현실입니다. 

AutoML은 기존의 방식들보다 난이도가 낮아 손쉽게 AI를 개발해서 비즈니스에 적용할 수 있도록 구글이 선보인 툴입니다. AI 개발 과정에서 난이도가 가장 높은 단계 중 하나인 ‘데이터 학습을 통한 신경망 강화(Reinforcement learning with artificial neural network)’를 대신 해주기 때문에 기업은 학습 데이터(Training data)를 준비하고 레이블을 달아 분류하기만 하면 됩니다. “구글의 AI가 내 AI를 학습시켜 준다”고 생각하시면 되는데요, 신경망 강화가 이미 이루어진 구글의 AI가 전이 학습(Transfer learning) 및 Learning2learn 기술을 활용하여, 유저가 구축하고자 하는 모델의 신경망을 강화시켜 주는 것입니다. 또한, 프로그래밍 언어를 활용해서 직접 코딩해야 하는 텍스트 기반 개발 환경이 아닌, 그래픽 UI 기반의 개발 환경이기 때문에 기존의 AI 개발 방식들보다 진입 장벽이 낮습니다.  


TechCrunch 기사에 소개된 AutoML 사용법


구글은 올해 초 1월 17일에 AutoML Vision의 알파 버전을 공개했었습니다. 이번 Google Cloud Next 2018에서는 AutoML Vision을 프라이빗 베타 버전으로 전환했다는 소식과 함께, AutoML Natural LanguageAutoML Translation기능을 추가적으로 공개했습니다. 



AutoML Natural Language의 경우, 텍스트를 자동적으로 카테고리에 분류시키는 것인데요. 위 사진에 나타난 바와 같이 고객 서비스 센터에 접수되는 문의들을 분류하는 작업을 예시로 들 수 있습니다. "일요일 밤에는 몇시까지 영업하나요?" "인원이 10명일 경우 비용이 어떻게 되나요?"와 같은 문의는 '정보 요청(Info request)' 카테고리로 분류할 수 있고,. "서비스가 최악이네요" "대기자가 너무 길어서 짜증이 납니다"와 같은 문의는 '불만(Service complaint)' 카테고리로 분류할 수 있습니다. 구글 클라우드 AI의 PM 디렉터 Rajen Sheth는 "90퍼센트 이상의 고객 관련 정보는 비정형화된 텍스트 데이터이다. 문서, 이메일 등의 고객 데이터로부터 유의미한 정보를 추출할 수 있게 됨으로써 보다 기업과 고객 모두에게 유용할 것"이라고 밝혔습니다. 


AutoML Translation의 경우 분야와 맥락에 따라 의미가 달라지는 용어들의 번역 기능을 강화했습니다. Rajen Sheth는 단어 Driver를 예시로 들었습니다. 기술적인 문서에서는 Driver가 '소프트웨어 드라이버'로 번역되어야 하고, 또 다른 맥락에서는 단순히 '운전자'로 번역되어야 합니다. 매일 약 1430억 개의 단어를 번역하고 있다는 Google Translate는 이번 월드컵 기간동안 방대한 양의 데이터를 수집했다고 합니다. 여기에 AutoML 기능을 통해 강화되기까지 한다고 하니, Google Translate의 잠재적 수익성이 높이 평가됩니다. 


현재까지 Disney, Hearst(미국 미디어 그룹)를 포함한 약 2만 여개의 기업이 AutoML 서비스 사용 신청을 했다고 합니다. 대표적인 우수 사례로는 고객이 요구하는 스타일의 집을 찾아주는 데 AutoML Vision을 활용한 사례, 부동산과 뉴스를 카테고리화시키는 데에 AutoML Natural Language를 활용한 Hearst 미디어, 전문 분야 뉴스 번역에 AutoML Translate를 활용한 Nikkey 신문이 있습니다. 이미지와 텍스트 관련 AI 외에도, 음성 인식과 관련된 AI 툴 또한 개발 로드맵에 있다고 하니, 구글의 앞으로의 행보가 기대됩니다.


4. 구글의 본격적인 칩 시장 진출

구글은 현지시간 7월 25일에 머신러닝 프레임워크(Machine Learning Framework) TF(Tensor Flow)에 최적화된 맞춤형 칩 TPU(Tensor Processing Unit) 버전 출시를 발표했습니다.


구글의 궁극적인 목표는 이미지인식이나 음성인식과 같이 머신러닝과 관련된 제품을 만들고자 하는 개발자들을 위해 단말기에서부터 서버까지의 맞춤형 하드웨어 제품군들을 제공하는 것입니다. 클라우드 TPU(버전 3 곧 출시 예정)를 통해 다양한 머신러닝 기반 작업의 모델들을 학습시키고 학습된 모델을 저전력으로 사용가능한 특수칩에서 실행시키도록 하는 것이죠.

1센트 동전 위의 TPU


구글은 학습(Training), 추론(Inference) 연산과정을 하드웨어적 분리를 통해 기기 내에서 실제 필요한 데이터 공간을 크게 줄였습니다. 그래서 결과적으로 전력을 적게 소비하며 처리 속도를 높이고 칩 표면적을 최소화했습니다.


또한 구글은 머신러닝을 수행하기 위해 가벼운 버전의 모델을 사용하여 서버를 거칠 필요없이 기기에서 TF를 바로 컴파일 할 수 있는 서비스를 출시할 예정입니다. 이를 통해 대기 시간을 단축시켜 자율주행 차량의 안전문제 해결, 실제 대화같은 음성인식도 할 수 있게 될 것으로 보입니다.


GPU가 확산됨에 따라 다양한 머신러닝 기술 이용하여 성공한 사례가 많아졌습니다. GPU가 학습(training), 추론(inference) 연산에서 모두 뛰어난 성능을 지니지만, ms단위 지연 현상으로 자율 주행을 위해서는 더 좋은 하드웨어가 필요하고 큰 전력 소비, 부피 차지 등 제한적인 요소들이 있었습니다. 이런 점들을 보완하고자 나온 TPU는 메모리와 실제 코어 간의 데이터 이동과정이 덜 복잡해서 낮은 정확도 계산을 많고 빠르게 하며, 작은 크기에다 저전력으로 작동 가능하여 GPU와는 다른 시장을 형성했습니다.


최근 칩 시장의 경쟁은 치열해졌고 훌륭한 활용 사례를 알아내는 것이 중요시되고 있습니다. Caffe2, Pytorch같은 다양한 개발 프레임워크를 제치고 자회사의 TF가 메인스트림이 되도록 하고 싶은 구글이 칩 시장에 진출한 이유입니다.


상용화되는 딥러닝 프레임워크


구글은 라즈베리 파이처럼 모듈식 보드에 칩을 출시할 예정이며, 참신한 용례를 생각해낼 수 있도록 개발자 친화적으로 만들려고 합니다. 특히 TF를 컴퓨터 학습 프레임 워크로 사용하는 개발자가 다른 프레임워크보다 모델을 빠르고 효율적으로 실행할 수 있는 TPU 칩을 사용하도록 유도할 것으로 보입니다. 이렇게 구글은 칩 시장으로의 진출로 다양한 활용법을 찾고, 새로운 사용자들을 끌어들이는 일석이조의 효과를 보며 개발자들을 하드웨어(TPU)와 프레임 워크 (TensorFlow)로 이뤄진 용이한 개발환경에서 벗어나지 못하게 하려는 계획을 갖고 있습니다.


소프트웨어, 하드웨어에서 매번 놀라운 성과를 내는 구글이 머신러닝 바람을 타고 이미 임베디드 시스템을 점유하고 있는 ARM, Intel이라는 큰 산을 넘어갈 수 있을지 기대됩니다.


5. 미국 국방성 DARPA, 반도체 칩 설계 기술 혁신을 위한 6가지 과제 발표

미 국방성의 연구, 개발을 담당하고 있는 DARPA(방위 고등 연구 계획국)은 기존의 칩 기술을 뛰어넘고자 "Electronics Resurgence Initiative (이하 ERI)"와 관련한 이벤트에 앞으로 수년간 최대 15억 달러를 사용할 계획이라고 밝혔습니다.

 

미국 버지니아 주 알링턴에 소재한 DARPA 본부


ERI와 파트너를 맺었거나 참가하는 대학 연구소는 매우 많습니다. MIT, 스탠포드, 프린스턴, 예일 등 유수의 대학이 참여하고 있으며 각 교육 기관은 아래의 6가지 하위 프로그램 중 하나를 선택하게 됩니다.

 

① Software-defined Hardware (SDH)

전문화된 프로세서는 범용 프로세서보다 작업을 더 빨리 완료할 수 있습니다. 하지만 전문화된 프로세서는 가격이 비싸고, 제작 시간이 오래 걸린다는 것입니다. SHD는 이러한 처리 중인 데이터를 기반으로 실시간으로 재구성할 수 있는 하드웨어 및 소프트웨어, 특히 기존의 문제점을 개선시켜 제작하는 방법을 연구합니다.

 

② Domain-specific System on Chip (DSSoC)

DSSoC는 개발자가 ASIC, CPU 및 GPU와 같은 부품을 쉽게 조합할 수 있도록 도와주는 "단일 프로그래밍 프레임 워크"를 개발하는 것을 목표로 합니다. 예를 들어 맞춤형 칩과 범용 칩 사이에서 올바른 균형을 찾는 것을 도와줄 수 있습니다.

 

③ Intelligent Design of Electronic Assets (IDEA)

실제로 칩을 물리적으로 배선하고 레이아웃을 디자인하는 것은 매우 복잡하고 고도의 전문성을 필요로 하는 작업입니다. IDEA는 1년이 걸리는 칩 설계를 1일로 단축하여 24시간 설계주기 시대를 여는 것을 목표로 하고 있습니다. 흥미로운 점은, 자동화를 통해 인간 전문가는 ‘설계’가 아닌, 단지 결과적으로 생산되는 디자인을 ‘해부’하는 역할을 담당하게 될 것으로 예측하고 있다는 점입니다.

 


④ Posh Open Source Hardware (POSH)

POSH는 오픈 소스 라이센스에서 만들어지는 전문 프로그램을 의미합니다. ‘라이센스’는 최상의 시스템을 만드는 데 장애물로 작용할 수 있기 때문에, 라이센스 제한이 없는 기본 프로그램을 제작하고 테스트하는 것을 목적으로 합니다.

 

⑤ 3-Dimensional Monolithic System-on-a-chip (3DSoC)

현재의 표준 모델은 프로세서와 칩을 중앙 메모리에 연결하는 방식을 취하고 있습니다. 하지만 이는 병목 현상을 유발할 수 있기 때문에, 3DSoC는 모든 것을 stack으로 결합하여 (즉, 3차원 방식의 결합) 이 문제를 해결하고자 합니다. 표준 방식보다 적은 전력을 사용하면서 계산 시간을 50배 이상으로 단축할 수 있을 것이라고 예상됩니다.

 

⑥ Foundations Required for Novel Compute (FRANC)

앞에서 설명한 ‘표준 모델’은 컴퓨팅 이론의 창립자인 폰노이만이 고안한 디자인으로, 매우 널리 사용되고 있습니다. 하지만 DARPA는 데이터 이동을 최소화하거나 제거하는 방식으로 ‘새로운 컴퓨팅 디자인’을 만들 때라고 주장하며, 새로운 재료와 통합 체계를 디자인하고자 시도하고 있습니다.

 

위에서 설명된 6가지의 야심찬 아이디어들은 지금 당장 유용한 것을 만들어 내는 것으로는 보이지 않을 수 있습니다. 하지만 미국 국방부는 기초 과학을 후원하여 미국의 혁신을 촉진하고자 노력하며, 이는 이후에 군사 분야에서 중요한 의미를 가지는 기술로 발달할 수 있다고 판단한다고 밝혔습니다.

 

6. 첫 양자 컴퓨터 기반 제품, ColdQuanta

흔히 양자 컴퓨터라는 말을 들으면 상용화되기까지 아직 많은 시간이 남았다고 생각합니다. 하지만 이 분야의 오랜 연구자이자 ColdQuanta의 창업자인 Dana Anderson은 이미 양자 컴퓨터 기반의 제품을 만들려고 하고 있습니다.



이번 주 Maverick Ventures로부터 675만 달러의 투자를 유치 ColdQuanta는 올해로 11년 째 양자 컴퓨터 관련 기술을 연구하고 있습니다. ColdQuanta의 핵심 기술은 레이저를 이용해 원자를 냉각시키는 기술입니다. 양자컴퓨터를 만드는 방법 중 최근에 가장 많이 쓰이는 방식이 원자를 냉각시켜 거의 정지 상태로 만들고, 이를 양자컴퓨터에서 상태를 저장하는 "양자"로 사용하는 것입니다. 이렇게 원자를 거의 절대 영도 근처로 냉각시키고, 이 상타에서 양자에 상태를 저장하고 읽는데 레이저 기술이 사용됩니다. ColdQuanta는 이 레이저 기술을 안정화시키고 장비를 소형화시켜 상용 가능한 간단한 양자 컴퓨터를 제작하고 있습니다.


ColdQuanta에서는 기존의 컴퓨터와 같이 복잡한 연산을 하는 장치가 아닌 간단하지만 고속 연산이 필요한 경우에 대한 제품을 우선적으로 개발 중입니다. 대표적인 제품이 간단한 신호 처리보드와 시간 측정장치 입니다. 두 제품 모두 기존의 회로 기술로 구현이 가능하지만, 빠른 신호 처리와 피코 단위의 시간 측정을 위해서는 새로운 접근법이 필요합니다. 특히 시간 측정과 같은 경우, 고속 주식 트레이딩, 네비게이션, 자율 주행 등에서 필수적인 기술이라 양자 컴퓨터 기술로 기존보다 더 성능이 좋은 시계가 있다면 새로운 시장이 만들어질 수도 있습니다. ColdQuanta에서는 여기서 더 나아가 이러한 양자 컴퓨터 장비를 우주정거장 ISS에 설치할 계획도 준비 중입니다.


CEO Dana Anderson은 현재의 양자컴퓨터 기술을 과거의 머신러닝 기술과 비유하였습니다. 최근 딥러닝이 등장하면서 기존의 머신러닝 기술도 많은 주목을 받고 있지만, 예전에는 많은 사람들이 머신러닝 기술이 이렇게 발전할 것이라 생각하지 않았습니다. 하지만 그 당시에도 머신러닝을 상용화하려는 시도들이 있었고, 그 때의 시도 덕분에 현재 많은 제품에 머신러닝 알고리즘이 탑재될 수 있었습니다. Dana는 양자컴퓨터 기술도 현재는 신호 처리나 시간 측정 용으로만 사용하지만, 미래에 기술적인 돌파구가 나온다면 핵심 기술로 자리잡을 것이라 확신하며 ColdQuanta를 만들었다고 합니다.


7. UCLA연구진, 광학적 구조체를 통해 뉴럴넷을 구현하다.


 오늘날 머신러닝은 다양한 어플리케이션에 적용됩니다. 눈에 보이진 않지만 음성 최적화나 얼굴 인식 등에 활발하게 사용 되고 있죠. 하지만 지금 소개하는 머신러닝 연구에서 UCLA 연구진은 말 그대로 눈에 보일 뿐만 아니라 물리적인 머신러닝 구조체를 개발했습니다.


 이 연구에서는 컴퓨터와 숫자를 이용하지 않고 레이저 굴절 광을 이용해서 딥러닝을 구현합니다. 이상하지만 특별하기도한 이 연구는 역설적이게도 복잡하게 느껴지는 인공지능 시스템이 실제로는 얼마나 단순한 것인지를 잘 묘사해줍니다.


 머신러닝이란 근본적으로 데이터셋들에 대한 일련의 계산으로 이루어집니다. 부분적으로는 복잡하지 않지만, 사람의 손으로는 도저히 할 수 없는 계산입니다. 궁극적으로는 이 단순하지만, 반복적인 수학 연산이 입력한 데이터에 대한 “학습된” 패턴과 매칭되는 확률을 만들어 내는 것입니다.


 딥러닝에서 레이어라고 불리는 패턴은 한번 “학습”이 끝나고 나면 숫자들로 값이 정해지게 되고, 예측값을 얻기 위해 패턴을 통해 단순 계산을 수행하게 됩니다. 또한 학습 이후에 보통 CPU 파워나 용량을 고려한 레이어 최적화가 진행되곤 합니다. 그러나 UCLA의 연구자들은 이 패턴, 레이어라는 것을 고체화해서 만들어 냈습니다. 본 구조체는 투명한 물질로 3D 프린팅되어 빛이 회절될 수 있는 복잡한 패턴으로 만들어졌으며 기존의 딥러닝에서는 컴퓨터가 숫자로 계산하는 것을 빛으로 해냅니다.



 이해가 잘되지 않으신다면 주판을 생각해보세요. 오늘날에 모든 계산은 컴퓨터로 계산되지만, 옛날에는 주판과 같은 물리적 구조체의 도움을 받곤 했죠. 비슷한 개념입니다. 위 연구의 구조체는 딥러닝의 출력 값을 계산하기 위해 컴퓨터와 같은 전자적인 논리 회로가 아니라 회절과 같은 물리적 작용을 이용합니다.


 연구자의 말을 빌리면 다음과 같습니다. “구조체에서 주어진 레이어의 각 점은 전파를 통과시키거나 반사 시킵니다. 이는 딥러닝에서의 인공 뉴런들을 나타내죠. 연결된 뉴런들이 어떠한 출력 값을 계산하듯이, 본 연구에서는 각 점에서의 광학적 결과에 따른 위상 및 진폭의 변화로 출력 값을 내게 됩니다.”


 “우리의 광학적 딥러닝 프레임워크는 컴퓨터로 계산할 수 있는 뉴럴넷 함수들의 결과를 광속으로 내놓습니다.”


본 연구는 이번 달 27일 사이언스지에 “All-optical machine learning using diffractive deep neural networks

라는 제목으로 게재되었습니다.


 연구자들은 본 구조체의 시연을 위해 손 글씨를 인식하는 딥러닝 모델을 사용하였습니다. 학습이 끝난 레이어가 수행하는 연산 수단을 수학적 매트릭스에서 일련의 광학적 작용으로 변환 하였고 이를 구조체로 만들어 냈습니다. 예를 들어 완성된 구조체의 레이어는 빛은 모아주고 분산시키는 것을 통해 더하기 빼기 연산을 구현해냅니다. (물론 현실의 계산은 훨씬 복잡하겠죠.)



 구조체에서 수 백만 번의 광학적 변환을 거친 빛은 90 퍼센트의 정확도로 손글씨를 구분해냅니다.


 그래서 이 구조체를 무엇에 활용할 수 있을까요? 현상태로는 이용할 곳이 없지만 전력과 컴퓨터의 연산 없이 광학적 구조체만으로 뉴럴넷을 구현 하는 것은 혁신적인 아이디어입니다. 훗날에는 얼굴인식에 CPU가 필요 없는 광학 구조체가 나올 수 있지않을까요? 그 때가 되면 카메라에도 유용하게 쓰일 수 있게 되지 않을까요?




인기 포스팅 보기

댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
«   2024/03   »
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31
글 보관함