[SEOUL Summit – T1] 데이터 사이언스 전문 지식 없이 Cloud AutoML속으로 깊이 들어가보기

으 [음악] 아 아 아 으 으 에 저는 구글에서 파트너 엔지니어로 일하고 있는 인종 들어갑니다 아키 로트 부터 여러 세션 에서 오토 m l 이라는 단어를 많이 들으셨을 거에요 오늘 압전 센서 있어도 좀 많이 다뤄 졌는데요 오늘은 그 오토의 메리 정말 어떤 것이고 어떻게 사용하는 지 조금 편안하게 어 데모와 함께 들으시면 되겠습니다 구글 하면 생각나는게 우리 많이 있죠 이렇게 그걸 설치도 있고 앞서 보셨던 뭐 뒤 메일이나 이런지 수 있게 열도 있고 유튜브 도 있고 광고도 있고 여러가지 됐습니다 그런데 구글의 ai 하고 ml 관련된 거 생각하면 어떤게 생각나시나요 여러 가지가 있을 수 있겠죠 구글은 그 ai 애널 기술을 저희 서비스의 굉장히 많이 사용하고 있는데 아 혹시 이 사건이 기억나시나요 알파 고 라고 하는 것이 아 2년 반 전에 2 3 o 를 이기면서 아주 큰 반향을 일으켰는데 저는 바둑을 좀 둘은 편인데 아 막 4기를 했었습니다 절대 못 이긴다고 알파 고가 2 4 2 3 5 를 이길 수 없다 를 강력히 주장 했었어요 그런데 말도 안되게 쳤죠 그래서 저는 그 2 제가 구글로 회사를 옮기게 된 이후에 절반은 아니겠지만 아주 많은 부분이 아이 사건이었습니다 세상이 이제 아 머신 러닝 의 세상으로 가고 있구나 라고 제가 2년 반 전에 좀 깜짝 놀랐던 사건이었고 그 기술을 지금 현재 엄청나게 발전을 하고 있습니다 처음에 그 알파 고가 2 3 5 를 이긴 버전을 아이섀도우를 존경하는 의미에서 알파 고니 이라고 하는 버전이 있습니다 지금 현재는 알파 고 제로 버전까지 와있는데 아이 전에 버전은 r 그 인간들이 두었던 바둑 기보 로부터 학습을 했는데 지금 알파 고 재료는 아무것도 없는 곳에서 학습을 시작해서 인간을 완전히 뛰어넘은 상태가 됐습니다 아 그래서 지금 보시면 그쵸 이닝을 한지 겨우 3일이 지나면 지금 현재 알파 고 제로는 아 e dei 세도를 이겼던 알파 고리 버전을 앞서게 되고요 21일이 지나면 왼쪽 새로 축은 그 게임의 상대적인 그 랭킹을 나타내는 수치의 어 어이 공식적인 수치인데 그 수치가 지금 보시는 것처럼 20일 이후에는 40일이 지나니까 아주 굉장히 높은 곳까지 올라가 버렸죠 아 이미 그 얘길 수가 없습니다 이제 인간은 그래서 지금 인연이 2년 반이 지난 지금 이게 어 구글에서 검색한 최근 기사에 요 기소 내용에 어떤 내용인가요 바둑 기사들이 기존에는 그 정석을 공부하고 기존의 과거의 두었던 아줌 영국 뜰을 연구하면서 바둑을 공부하게 되는데 수를 연구하는 데 지금은 집집마다 gpu 기반의 아 pc 를 구매하고 있습니다 그리고 ai 기반의 바둑 프로그램으로 그 머신 러닝 기반의 바둑 서비스를 통해서 어여 연구를 하는 시찰 세대가 해버렸어요 아 정말로 2년 전에는 아무도 예상할 수 없는 세상에 지금 오고 있는 거구요 이러한 그 구글의 기술들이 보여주는 것처럼 구글은 이제 이순 다 라고 하는 즉 구글의 ceo 께서 이렇게 말씀하셨어요 우리가 최근까지 살고 있던 세상은 모바일 볼 수 되었죠 우리가 쓰고 있는 스마트폰 세상에 오면서 모든 애플리케이션은 모바일을 중심으로 먼저 만들었어요 이미 모바일 브라우저가 접근하는 것이 pc 를 넘어선 지는 벌써 몇 년이 지났건만 요 인터넷에 접속하는 것이 그래서 우리는 이제 모바일 풀 시티에서 ai 플래시드 세상으로 가고 있다 라고 얘기했고 구글은 이러한 머신 러닝 가 aid 수를 다양한 서비스의 에 적극적으로 적용을 하고 있습니다 그럼 구글의 그의 미션 아까 미션 스텐트 같은거 많이 들으셨을 텐데 그 그룹은 정보들을 잘 공유하고 유용하게 쓸 수 있도록 하는 게 목적이 줘 ai 의 구글의 미션은 기억 또는 개발자들이 쉽게 접근해서 빠르고 유용하게 ai 를 아 뭐 민주화 또는 대중 한다 누구나 쓸 수 있게 하겠다는 겁니다 그러면 jr 을 도입 을 하려면 우리가 무언가 필요하죠 아까 그 바둑기사 들이 집에다 gpu 기반의 pc 를 구매해야 되는데 우리 회사 나 또는 우리 학교 나라 또는 본인이 직접 ai 를 하기 위해서는 일단 인프라가 필요합니다 그게 그것이 gpu 기반 이든 cpu 기반 이든 또는 구글의 tpu 기반이 등 인프라가 굉장히 많이 필요해요 참 이 학생 이라고 하는 것은

굉장히 브루트 보시죠 엄청나게 많은 아 이 컴퓨팅 자원을 필요로 합니다 그리고 점점 더 데이터 보안은 중요하게 되고요 가장 중요한 게 베이터 있어야 돼요 학습을 시킬 데이터가 없으면 아 이 모델을 만들 수가 없어요 그리고 우리가 우리가 많은 연구자들이 만들어 놓은 뒤에는 cnn 아래 낸 같은 다양한 그 립 러닝 또 머신 러닝 모델이 프로그램적으로 존재를 해야 됩니다 최근 a99 글 뿐만 아니라 다른 회사에서도 마찬가지로 멋있는 이라 ai 가 아 급속도로 발전하는 이유가 바로 클라우드와 머신 러닝 2 접속 되기 만났기 때문에 요 매시브 스케일의 인프라스트럭처를 제공할 수 있는 것이 바로 사용한 만큼 노래는 클라우드 서비스가 된거구요 또 다른 이유 중의 하나는 많은 개발 차 연구자들이 알려진 모델들을 프로그램 마 해놓은 라이브러리들이 많아졌습니다 손쉽게 접근할 수 있긴 된거죠 하나씩 살펴보면 이 사진을 많이 봤을텐데 그 보통 데이터센터를 추운데 해지 줘 에너지 효율성을 높이기 위해서 그래서 구글은 가장 방대하고 당연하겠죠 전세계 10억명 이상의 서비스가 열 개가 있는데 사용자가 있는 그 중에 7개를 구글이 서비스 하고 있습니다 그러다 보니까 가장 크고 가장 발전된 형태의 데이터 센터를 보유하고 있고 아 이 해저 케이블을 실제로 투자를 해서 매수를 하고 운영하는 회사는 구글 밖에 없습니다 그래서 전체 인터넷 트래픽의 40% 를 책임지는 인터넷 망을 갖고 있어요 그래서 이러한 인프라 가 클라우드 로서 제공되므로 서머싯 넌 이걸 쉽게 접근하실 수 있구요 아 지금 보셨던 그 알파 고 얘기 잠깐 알았는데 인프라가 중요한 이유는 모델이 발전하면 발전할수록 필요한 아 인프라는 굉장히 급속도로 드러납니다 지금 보시는 것처럼 초창기의 어떤 모델들이 아 2 점점점 모델들이 발전함에 따라 많은 양의 컴퓨팅이 필요해요 이걸 집에서 구축할 수는 없습니다 그래서 클라우드 라고 하는 것이 머시너리 굉장히 중요한 요소로 자리잡고 있구요 아 그러한 그 일례를 들어 보면 어 이런 말을 했었어요 제티 이라고 하는 구글의 선로 분께서 모든 사람이 동시에 몇 년 전에 했던 말이야 모든 사람들이 동시에 안드로이드폰의 3분만 이야기하기 시작하면 구글의 임하는 에 인프라도 전부 다 소진할 것이다 그래서 우리는 대안을 찾아야 된다고 생각을 했고요 그래서 많은 얘기가 나왔을 텐데 tpu 라고 하는 펜 소 플로우 전형 칩이 개발이 됐습니다 그래서 이 탄소 플로우 칩은 d pu 처럼 형태로 생겼어요 그래서 gpu 32 개의 gpu 로 하루가 걸렸던 트레이딩을 이 tpu 의 8부 4일 정도 가지고 줘 tpu 에 파드 라고 하는 서버 군의 8부 네일 랩 정도로 6시간 이면 튜닝이 가능하다 성능이 굉장히 좋은 머신 러닝 에 굉장히 좋은 컴퓨팅 자원들을 구글이 제공을 하고 있습니다 그리고 당연히 c qt 와 중요하기 때문에 아 이 레이어드된 디펜스 아 파 드 실 갖고 있어요 그래서 파일 단위 부터 네트웍 모든 수준에서 구글은 안전한 아 접근을 제공합니다 그래서 구글 ar 플랫폼이 굉장히 복잡하게 많이 있어요 지금 보시면 아랫단에 말씀드렸던 인프라가 있고 아 탄소 플로우를 중심으로 한 라이브러리 개월 들이 있습니다 그리고 퍼셉션 서비스 씻으라고 하는 건 뭐냐면 이미 구글이 추행 해놓은 모델이에요 예를 들어서 이게 고향인 야 라고 물었을 때 이게 고향 이다 라고 찾아줄 수 있는 것은 구글의 비전 api 를 코라는 경우 cc 우회 구글보다 더 많은 데이터로 고양이 사진을 찾아내는 모델을 여러분들 만들 수가 없습니다 데이터의 문제인가요 이것은 엄청난 방대한 데이터로 잘 툴 련된 구글이 구글 칠 수 있도 많이 쓰시죠 예전에는 아트릭스 데이텀 연어 번 엽기 돌려 냐 뭐 이런말이 있었잖아요 그 퀄리티가 맞을 때 얘기죠 그런데 지금의 번역기에 수준은 제가 어 구글의 머신 논이 이라고 치시면 제 가 번역해 놓은 글이 가장 먼저 뜨는 데요 찾아 오실 수가 있을 쉽게 아 제가 아까 그 사건 2년 반 전에 이세돌 사건 이후에 아 이제 머시너리 공부를 시작했어요 어 이제 세상이 바뀌고 있구나 생각하고 그래서 블로그 예 어 번역을 했는데 그때는 제가 부칙 쩝 번역을 했는데 제가 예전에 채권 역 했던 경험을 살려서 번역을 했는데 최근에 그늘 돌려봤더니 거의 유사합니다 거니 제가 번역한 거랑 아 그걸 추이 스위시 번역한 것은 이렇게 알려진 잘 만들어진 모델은 그냥 호출에서 사용하시는 것이 훨씬 편합니다 해서 m1 연구자 이거나 데이터 사이언티스트 라면 판소 플로우를 사용하거나 lng 를 가지고 자신만의 모델을 빌어 파시면 되는거구요 앱개발 차가 어떤 서비스를 어 사진을 찍었는데 그 자동차의 아 이 어떤 모델이라 이런걸 찾아보는 것은 우리 이 구글이 가지고 있는 서비스를

이용하는 것이 훨씬 더 쉽습니다 그래서 말씀드린 것처럼 어이 것을 두 가지로 나누어 보면 구글의 모델을 그냥 사용하면 뭐 물론 비용이 들겠죠 사용하면 어떤 앱을 개발하는 것은 쉽게 만들 수가 있어요 그런데 어떤 특정한 환경에서 내가 원하는 답을 찾아 주려면 어쩔 수 없이 컷은 모델을 나만의 모델을 프로그램적으로 만드셔야 됩니다 그럴 아 2 개 고양이 서지 항상 머신 어디 갈 때 많이 나오는데 그게 왜 그런지는 이제 좀 있다 설명을 드릴께요 아 지금 보시면 어 그 지내리 타스크 라고 해서 일반적인 서비스를 만드실 때는 어 이게 고향인 여러분 는걸 고향인 약 강아지 개 냐 라고 맞추는 것은 말씀드린 것처럼 apm 우측에 쓰시면 되요 고양이나 개 념 물어보면 됩니다 이미 아주 뛰어난 엔지니어들이 만들어낸 모델로 츄리닝이 되어 있어요 근데 이 고양이 이르니 해피 인지 알려면 우리만의 모델을 최 이닝을 해야되요 이 때 이용하는 것이 지금까지는 팔수 플로어로 버파 있던 코딩을 하던가 lng 를 이용해서 프로그램을 모델을 훈련시키는 작업들을 직접 손수 하셨어야 됩니다 어이 고양이 사진을 넣었을 때 해피 라고 말해주는 서비스는 없는거예요 우리가 직접 만들어야 됩니다 자 그 고양이와 개를 9분하는 그 안에 있는 기술은 어디 뭐 링 기술 중에 컨트롤 로션 네트워크 를 사용합니다 그래서 이 중첩된 많은 레이어드를 통해서 2 저 바구니 안에 있는 것이 고양이 인지 개인지 판단하는 모델들을 훈련 시키게 되는 거죠 그래서 2딘 말이라는 건 뭐 이름에서 알 수 있듯이 아주 중첩된 레이어드를 복잡하게 구성하고 아 기술들을 적용해서 2 비전 이라고 하는 사진 속에서 어떤 오브젝트를 찾아내는 작업들을 진행할 수가 있습니다 그래서 이 고양이가 왜 중요하냐 하면 왜 거에 대고 양기가 항상 멋있는 빚은 쪽에서 많이 나오냐 면 고양이를 처음 9분하게 얼마 안됐습니다 고양이를 9분 하려고 2분 되게 유명하신 분이죠 아 n 주류 의 라고 하는 아 교수님이 시정 스탠퍼드 대학교 교수님 신데 아코 세라의 강의가 굉장히 유명하신 것이 너인걸 공부하시는 엔지니어 분들이 가장 처음에 접하는 것이 엔즈 윤 교수의 아 강의가 되는데요 교우 5년 전 어 예 경제적 이네요 2012년에 구글 하고 스탠퍼드 대학교의 n 지우기 손잡고 유튜브에 있는 영상의 고양이가 있는지 없는지를 찾는 좋 위에 보시면 이렇게 펼쳐진 그 고양이 얼굴을 찾아내는 그림이 보이시죠 이게 겨우 용 년 전이었습니다 6년전에 아 그때도 얼마나 들었냐 하면 16,000 대의에 서버를 연결해서 이 작업을 진행 해 줘 그러니까 고양이 사진 1 9분하는데 도막 그 당시에 아 막 지금 조금 적겠죠 16,000 대의에 서버를 연결해야만 이 고양이 사진을 처음으로 찾아낸 거야 이렇게 해서 고향 이라고 하는 것이 아 고양이 라는 것을 사람이 개입하지 않고 영상 속에서 사진 속에서 찾아낼 수가 있게 된 겁니다 이 사건이 있은 이후에 엄청난 반향이 들을 불러 일으켰습니다 그러면 실제로 그 우리가 앱을 개발할 때는 그냥 일반적인 퍼 세슘 서비스를 사용하면 된다고 말씀 드렸잖아요 그러면 우리가 비전 api 의 간 낙 간략한 데모를 보여드리도록 하겠습니다 으 많은 분들이 많으셨어요 라이브 데모를 하지 말라고 4 제가 이렇게 빵을 잘 않을 리는 아 편인데 저는 좀 이따 맞게 땀이 흐르며 먹어 잘못된 겁니다 데모를 하다가 저희 저희는 대모 신이 왔다고 보통 개발자들이 조 대모 신이화 따르다 약간 그 악마 같은 거죠 이렇게 잘못됐을 때 시녀와 떨었는데 외국에서 친구들 로 한테 물어봤더니 아 그 친구 대부 신이 같다 라고 편하더라구요 그래서 조금 저렇게 아까 그 저희팀 그 책방이 있는데 거기 리 인 도 하 인도인 신이 많잖아요 어치 님 알아서 인도 친구한테 배 모시를 한 명만 보내달라고 전에 요청해서 잘 될 거라고 생각합니다 지금 보시는 걸쳐 일본 팀에서 만든 대모 이고요 이 데모는 어 비전 api 를 호출합니다 잘 보이시죠 아 그래서 먼저 고양이 부터 볼까요 4 아 이 지금이 제가 지금 클릭을 하면 사진이 올라오면서 비전 ip 하에서 2 멀티 레이블 들을 보내줍니다 이렇게 이 안에 있는 색깔도 보여주고요 지금 보시면 요렇게 색도 있고 어 있죠 당연히 고양이가 99% 로 고양이 라는 걸 알 수 있어요 그러면 또 다른거 뭐 그러니까 이미 학습이 되어 있는거죠 구글에서 가지고 있던 많은 데이터 셋을 가지고 어 이미 학습을 해 놨습니다

지금 이제 그 사이 이 줘 그러니까 표지판 표지판 이라고 이렇게 알려 줍니다 그러면 조금 더 큰 걸로 한번 해볼게요 4 그 큰 야구장 사진인데요 이 야구장에 보면 이제 스테디움 이라고 되있고 어 이게 그 유명한 그 보시면 이곳이 어딘지도 알 수 있죠 지금 보면 이 안에 있는 텍스트들을 읽어 드렸어요 이 안에 있는 광고판에 있는 팩스 들이 보이시죠 ct 도 있고 뭐 휠 들도 있고 아 이렇게 글 자들도 보입니다 그런데 지금 보면 아이페이스 레크레이션 이 되어서 이 사람 얼굴이 하나 보이는 모양이에요 아 이 사람이 지금 현재 아 이렇게 기분이 좋으네요 기분이 좋다 며 점 이렇게 나와 있습니다 위치를 찾아 보니까 네 저 광고판에 사람이 보이시죠 4 광고판에 있는 친구가 살짝 미소를 짓고 있는 거야 그래서 이 친구를 찾아서 액체 삽입하며 없어졌네요 아 이렇게 됐습니다 그래서 저희 사이트에 가시면 아 이 비전 api 를 프로그램적으로 이제 래치 테이프의 코를 해서 이미지를 보내면 이 안에 있는 아까 보셨던 다양한 레이블이 나 어떤 기분 이모션 상태나 이런 다양한 정보를 사진으로 부터 추출해서 리턴 을 해주게 됩니다 그래서 이 이 둘에겐 드랍 형태로도 테스트 해 보실 수가 있어요 그래서 우리가 아까 보셨던 고양이를 알게 된 집 사 주면 안된다고 했죠 이 고양이 서 누가 봐도 고양이처럼 생긴 사진을 이렇게 들어간다 파시면 아까와 비슷한 형태의 밀턴 값들이 나오는 것을 확인할 수가 있어요 고양이 네요 그렇죠 그리고 이 웹에서 이런 것들이 어떻게 이 찾을 수 있는지 정보도 나오고 리턴된 제이슨 값도 이렇게 포 샘플러 보여줍니다 그러면 어 다른 것도 그렇게 개악 5 고양이 하고 같이 있는 사진을 한번더 볼게요 인간은 이것을 이렇게 학습하지 않아도 어릴때 학습을 했죠 이렇게 지금의 성인들은 이걸 보는 순간 알겠죠 고양이도 있고 개도 있고 이렇게 바로 알려줍니다 그러니까 여러분들이 어떤 fk 를 만드는데 이 이게 어떤 걸 구이 안에 있는 사진 안에 어떤 그 오브젝트들이 무엇이 있는지 어떤 상황인지 이런거를 아 이해하고 프로그램을 짜서 앱을 만들려면 굳이 애널 모델을 이런 지내리 칸 상황인 경우에는 굳이 다시 학습을 시켜서 데이터를 구하시고 할 필요가 없다는 거죠 물론 이제 비용이 들겠지만 이렇게 이미 잘 초인 된 아 이 apl 구출해서 쓰는 것이 훨씬 더 아 좋습니다 그러면 지금 요 사진 한번 볼까요 예 이게 어떤 뭐라고 생각하시나요 최근에 쭈 명한 영어가 있었죠 와칸 다 포레버 4 그래서 이 사진의 이제 넣어보면 사실 모르잖아요 그 이거 저희가 학습 안했기 때문에 뭐 동물학자 아니니까 정확하게 이 동물이 무엇인지 모르는데요 이거 를 넣어보면 아 이게 무엇인지 알려 주겠죠 학습을 많이 한 그 구글의 비전 api 가 블랙 팬서 라고 하네요 그렇죠 찾아봤더니 색깔이 없는 어 아까 줄 무늬가 없는 이 고양이과 동물이 퓨마 하게 어리고 이거를 북미에서는 이제 블랙 팬서 라고 부른다고 합니다 블랙 팬서 가 결국 2집 검은색 퓨마 였던 거구요 그래서 이렇게 일반적인 정보들을 어데 4 얻어내는 것은 아 api 를 호출하는 것만으로도 충분합니다 다시 화면으로 어 발표자료 로 들어가 볼까요 자 지금 보시는 것처럼 고양이 게 9분 하는거 뭐든 규제 쉬워 보입니다 아 그냥 이렇게 들에겐 드럼 만해도 개인지 고양이 지 알려주는 세상이 됐어요 아 그런데 이 안에 있는 것이 이제 그 컨퍼런스 내 척도로 이제 악은 브로셔 내 턱이 라고 하는데 이제 중첩 이란 뜻입니다 그래서 아 앞서 그저 힙합 테러 대표님께서 재차 표를 제가 쓰는 말인데 저게 하지만 현실은 아 뭐냐면 이 cnn 이라고 하는 컴프 모션 내 척 이라고 하는것은 일반인이 이해하기에는 굉장히 어렵습니다 지금 사진속에 있는 객체들을 한번 생각해볼까요 어 직관적으로 알 수 있죠 인간은 지금 말을 어떤 아이가 타고 있고 잔디밭 위에 있다 뒤쪽에 나무도 있구요 보는 순간 우리 즉시 알 수 있어요 하지만 아 예를 들어 알파벳 8a 라는 글자가 종이 a4 종이 어딘가에 써 잇다면 저희는 직관적으로 알 자 여기에 이라는 글자가 써 있다는걸 그런데 어이 머신 러닝 은 이걸 찾아내는 것 부터 시작해서 학습을 해야 됩니다 어느 어디 위치를 그래서 예전에 걸 찾아서 짧 은 다음에 하는 로직 또 있었고 여러가지가 있었는데 이 획기적인 그 컴 번씩 네트워크는 이 사지를 중첩 되게 어딘가엔 있다라고 하는 가정으로 중첩 되게 짤입니다 이렇게 타일로 만든 거예요 이게 정확하게 짜는 것이 아니라 오버래핑 이 되게 중첩되고 짤입니다 그걸 컴퓨 션

이라고 하고 2컬러 션을 만든 다음에 아 먼저 학습을 시켜서 데이터 값을 얻어낸다 이걸 수치와 하는 과정이죠 이 작은 어이 뉴론 애첩을 통해서 수치와 를 한 다음에 어 결국 이제 매트릭스 를 만드는 것 배열을 gpu 가 시 임 어 신혼 이 시대의 가장 뛰어난 성능을 나타내는 이유는 이 매트릭스 연산의 가장 뛰어나기 때문 이에요 그래서 이 행렬 연산을 막 행렬 을 만든 다음에 아 1월 2 이걸 더 전부다 학습 시킬려면 너무나 많은 시간이 걸립니다 그래서 중요한 의미 있어 보이는 것만 뽑아 내는 과정이 있는데 보통 mx 풀링 이라 여러가지 기법들을 통해서 의미 있어 보이는 것만 이제 뽑아 내는 과정이 있어요 그리고 더 많은 단계를 추가하면 이제 아우 리가 개인지 고양이 알게 됩니다 어 여기까지도 뭐 말로 설명하면 그렇죠 이해할 만한 수준이죠 그런데 이거를 아까 베이글이 보셨죠 앞서 세션 들으신 분은 이게 실제로 이제 논문의 나와 있는 거야 이 cnn 은 이미 많이 알려져 있어서 아주 약간의 변형 만으로도 훌륭한 경험을 과 를 얻어낼 수 있는 수치와 있습니다 그런데 이 그 현실은 이걸 다 프로그램으로 짜야 돼요 지금 이게 텐서 플로우에 파이썬 코드의 일부입니다 이 밑으로 한참 더 있어요 한참 어 저기 단계들을 다 아까 아스 이미지를 타일로 만들고 그 안에서 배열을 꺼내고 이 단계들을 다 프로그래밍으로 만드셔야 되요 그래야만 나만의 모델을 만들어서 학습을 시킬 c 다행히 아 이런 것들은 라이브로 형태로 많이 이제 더 뛰어난 개발자들이 미리 만들어 놓은 라이브러리도 있어요 하지만 어떤 경우에는 우리의 데이터는 거기에 잘 안 맞을 수가 있어요 그러면 이 단계를 조금 변형을 시키고 또 추가를 한다거나 학습을 계속해서 반복하는 이러한 엄청난 일들이 일어나게 됩니다 다시 대모 화면으로 잠시 돌아올까요 이걸 좀 도시과 해놓은 누군가는 그런 말해요 머신 러닝 이 하는것은 줄 국기 라고 아 40 플레이스테이션의 국한된 얘기지만 a 와 b 의 경계를 나누는 선을 찾아가는 것이 기본적으로 머신 러닝 에 기본 단계입니다 친구 시면 노란색 영역과 오른쪽에 파란색 영역이 있죠 이거 9분하라 그러면 누구든 할 수 있죠 십자로 이렇게 손을 딱 금연 노란색 영역과 파란색 영역 을 9분할 수 있겠죠 지금 필요한 건 십자선 이에요 그럼 아주 심플한 아 이것도 여러분들 다 접근해서 아 확인하실수 있습니다 지금 학습 시작되니까 못 찾고 있죠 지금 뭔가 좀 힘들어 합니다 그러면 잠시 멈추고 아 요렇게 생긴 모델을 추가를 해 보겠습니다 단계적 레이어를 추가를 하게 되며 잊어 찾았습니다 거의 완벽하게 아 이제 파란 영역과 노란색 영역 을 찾았다 는 걸 볼 수가 있죠 이건 어떻게 해야 될까요 조금전에 모델이 이 모델에도 적용이 가능할까요 어 되는거 같지만 조금 이상해요 그런데 이 다른 레이어를 추가 를 하게 되면 어 이제 정확하게 쳤습니다 아주 그 학습이 시작되자마자 명확하게 똥 g 선을 그어서 파란 영역과 노란 영역을 9분해 냈습니다 점점 복잡해지고 있죠 자 그러면 이렇게 생긴 것은 어떻게 해야될까요 어떤 데이터 아 아 도식화 에 해 놓은 거에요 상징적으로 지금은 노란색 선과 2 스파이럴 형태로 이렇게 만들어져 있는데 예를 들어서 아까 했던 그 모델이 여기에 적용이 가능할까요 아무리 시간이 지나도 처칠 못하게 되는 거예요 이렇게 반복된 학습을 해도 찾을 수 없는 상황이 일어나기 때문에 모델들을 계속 띠별로 팝니다 다시 그 발표자료 로 돌아가서 영상 지는 그 플레이 해 주실 수 있겠습니까 제가 지금 이렇게 그 어렵게 이렇게 아 분위기를 만드는 이유는 otm 일이 너무 쉽기 때문이에요 예 거기까지 가기 위해서 보여드릴 겁니다 4 화면이 나왔네요 영상 혹시 에 댄 앞에 질 보시죠 예 아까 하고는 상상을 초월할 수 없을 만큼 많은 중첩된 레이어를 베팁 러닝 레이어드를 만들어서 야 아까 고 상상할 수준이 아니죠 엄청나게 나서 이제 시간이 참 지금 시간이 가고 있죠 저 계속해서 위치를 하고 있습니다 한참 시간이 지났지만 아직도 찾지 못하고 있어요 저도 이걸 많이 해봤는데 막 레이어를 어떻게 해도 찾기 힘들어요 근데 반복된 학습이 계속 되니까 이제 약간은 약간은 우리가 선을 긋기 시작을 했습니다 그렇죠 지금 보여드린 이 화면은 결과적으로 여러분들이 머신 러닝 을 실제 생활 또는 실제로 어떤 애플리케이션 개발할 때 적용 하려면 지금 했던 모델을 개발하고 데이터들을 만들어서 계속 췌 능하고 튜닝하고 이런 과정들이 필요하다는

거예요 어 이제 한참 시간이 지나니까 어느정도는 찾아내고 는 있는데 여전히 좀 불안 전하 줘 이렇든 애매 를 직접 하시는 것은 시간이 정말 오래 걸립니다 아 데이터도 미리 사전 작업 하셔야 되구요 보통 이제 레이블링 이라고 하는 피쳐 또 찾고 레이블링 도 찾아야 되고 모델을 선택을 하셔야죠 여기는 어떤 네트웍이 적당한 네토 긴지 찾고 프로그래밍을 하거나 라이브러리 를 호출해서 추행을 해봅니다 결과가 안 좋으면 다시 해야 되요 또 다 데이터를 더 추가하고 또 시간 실험 데이터 바뀔 수가 있어요 내가 처음 만들었던 모델이 시간이 흐르면 적용을 했는데 절 적용이 안됩니다 처음에 잘 됐는데 그러면 또 다시 데이터를 가지고 우리 츄리닝을 해야 됩니다 e 여기에는 방대한 컴퓨팅 리소스가 필요하고 머신 러닝 전문가 가 모델을 계속해서 튜닝할 수 있는 아 우린 이 주위에 있어야 되요 친구든 직원이 든 아 이 이 부분을 하는 것이 굉장히 어려워요 저는 파란색의 있습니다 여러분은 어디에 계신가요 지금 현재 머신 러닝 에 이 연구자가 딜러 닝 연구자는 천 명 밖에 안됩니다 전세계의 2 이 디너는 연구자 의 노하우를 우리가 사용한다는 건 굉장히 어려운 상황이고 데이터 사인 테스트도 원 밀리언 100만 밖에 안됩니다 하지만 우리한테는 엄청나 개발자가 있죠 자바 했던 다양한 프로그램 경험이 있는 개발자들이 있어요 구글은 이 개발자들이 직접 머신 어닝을 손쉽게 쓰기 쓰기 하고자 합니다 누군가 저 복잡한 일을 다 대신해 주고 나는 딱 하나만 할 수 있다면 정말 좋겠죠 그게 즉 이름에서 나오는 것처럼 자동으로 nl 모델을 생성해주는 5 통해 내립니다 이오 텔미 를 이용하면 어 고양이가 아니라 내가 원하는 해피 라는 답을 주는 모델을 아까와 같은 복잡한 과정없이 할 수가 있습니다 그 이유가 구글은 이미 ai 를 이게 구글이 사용하고 있는 모델의 숫자의 요 아 솔치 에서 당기니 쓰고 있겠죠 뭐 여러분들이 이메일 다 파실때 자동완성 기능이 최근에 업데이트가 되서 쥐며 있으시면 타이핑 하실때 도움도 주고 있고 구글맵스 에도 당일이 적용돼 있어요 안쪽에 또 마찬가지고 구글 어시스턴트 도 있고 최근에 그 아이 5 데모 에서는 그 구글 어시스턴트 가 직접 미용실 예약하는 대부를 했었죠 인간이 아니니까 기계가 인간 에게 전화를 걸어서 컨텍스트 오행으로 대화를 진행해서 미용실 예약을 하는 것도 되므로 보여줬어요 당연히 알파 거도 있고 왜 뭐라고 하는 아 자율주행 자동차 됐습니다 그래서 이 구글 같이 이렇게 ai 관련된 많은 지식들이 있다면 그걸 재활용해서 우리는 손쉽게 쓸 수 있으면 좋겠다 라고 하는 것이 오토의 내리고 2 여러 단계를 거쳐야만 저의 프레디 센 또는 인 프린스 라고 하는 단계에 도달해 써있는데 오토 매매로 쓰면 아 데이터만 준비하면 나머지 일은 아 방 알아서 해줍니다 그래서 처음 나왔던 게 아 클라우드 5 처음엔 미 전 이구요 d 저는 개 고양이 9분한 거에요 사진에서 무언가를 찾아 주는것 비전이 되는데 아 이 지금 현재 퍼펙트 가 됐습니다 그래서 오늘 제가 올라온 이유는 여러분들도 제가 지금 보여주는 대모 처럼 손쉽게 커스텀 모델을 만들어서 이 고양이 이름이 해피 인지를 찾는 모델을 만들 수 있습니다 그래서 이 기술은 아랫단에 아 러닝 퉁 거니 라고 하는 그 기술인데 뭐 전의 학습 이라고도 하고 학습된 지식을 재 학습한다 고 하는 건데 모델을 처음부터 끝까지 트레이닝 하는게 아니라 최애 윙 된 모델을 이용해서 예를 들어 자전거와 오토바이를 9분하는 모델을 개와 고양이를 9분하는 모델로 바꿔서 쓸 수 있도록 다시 추리닝 하는 거죠 그래서 속도가 굉장히 빠르고 수분의 아 수분 내에 그 모델을 만들어 줍니다 아 뭐 많은 데이터 란에 뭐 시간 단위가 걸릴 수도 있겠죠 어 여러분들이 모델을 트레이닝 시키면 뒤 딴에는 구글의 인프라스트럭처 가 tpo 가 쫙 펼쳐지면서 빠르게 추리닝 시켜서 결과를 아 던져 주게 됩니다 서머 데이터는 준비하시면 되요 그럼 훈련하고 배포하고 서비스할 수 있도록 레스트 api 를 제공합니다 여러분들이 해야 될 것은 데이타와 레이블링 만 하게 되면 이 사진의 고양이가 있다 해피가 있다라고 만 정하시면 2호 터에 메리 알아서 훈련 해주고 모델을 만들고 서비스를 할 수 있는 레스트 api 까지 만들어 주게 됩니다 그리고 최근에 이제 저희가 다른 회사와 협력을 통해서 아 이 아유 뒤쪽으로 이걸 확대라고 있는데 이 모델을 hd 안까지 내려서 하는 것도 이제 지금 곧 나올 예정이에요 아 그래서 비전은 이렇게 말씀 드린 것처럼 이것은 가방 이고 이것은 신발이 고 어 이렇게 하셔도 되고 이것은 종대가 방이고 이거는 어 앤디의 신발이 고 뭐 이런식으로 레이블링 을

하시면 그 사진이 많이 있어야 되겠죠 대신 아 어 지 자동으로 만들어서 분류를 해 주게 됩니다 한번 데모를 볼까요 얼마나 쉬운지 그래서 오토메 일이라고 하는 그 곳으 이 화면은 이렇게 생겼습니다 굉장히 심플하고 전체 보이는 것처럼 아 조금 작으니까 보여드릴께요 보시는 것처럼 이렇게 현재는 베타 서비스 상태 입니다 해서 퍼블릭 배 타기 때문에 여러분들도 사용을 하실 수가 있구요 아 데이터를 넣고 최인 하고 평가한 다음에 우리가 결과를 맡더니 뭐 60% 밖에 안 되면 또다시 트레이닝을 하고 할 수가 있어요 그리고 프리 픽션 을 통해서 api 호출 하면 인 프린스 결과를 이게 고향인 직 왠지 알려주는 걸 만들 수가 있습니다 그래서 이제 어떻게 하는거냐 면 일단 데이터셋 만 있으면 된다 했죠 우리가 준비할 것은 데이터와 그 데이터의 가 무엇인지 만 알면 되는 거예요 그래 제가 이따 데모를 위해서 미리 학습 시켜 온 게 있구요 아 당연히 학습을 시간이 좀 걸립니다 그래서 어 새로운 데이터 셋을 이렇게 나오시면 됩니다 이름을 지도록 하죠 아 좀 작아서 안 보이네 네 그냥 이름은 이렇게 주시면 되는거구요 그리고 직접 파일을 하나하나 뭐 업로드 하셔도 되는데 지파 잃어도 올릴 수 있어요 근데 이 경우에는 제례 이블린이 안 돼 있는 것은 이 데이터가 뭔지 어제가 참 깜 먼저 보여드릴 게 데이터 쓰시 어떤 식으로 저장이 되는지 미리 츄리닝 대뜸 데이터를 들어가보겠습니다 이런식으로 되어 있는 거에요 여기 보시면 아 이거는 개고 고양이 될게 추천 l 이것은 고향이고 이렇게 요괴 레이블 입니다 멀티 레이블 두줄 지원을 해요 이 안에 있는 것이 고양이와 아이폰이 다 이런식으로 이거는 책상과 고양이다 이렇게 멀티 레이블을 콤마 찍으시고 넣어주셔도 됩니다 그 레이블링 하는 방법은 아까 길을 직접 올려서 여기 이렇게 들어가시면 2 여기에 레이블을 이렇게 선택하실 수가 있어요 내가 정해 놓은 레이블을 이렇게 하셔도 되지만 이건 굉장히 수작업이 때문에 일반적으로는 이렇게 csv 파일로 그 저희 스토리지에 다 먼저 올리시고 그 이런식으로 됩니다 아 구글 에 그 클라우드의 스토리지 에다가 데이터를 올리시고 그 컷마다 찍고 요렇게 이건 고향 이다 라고 하고 멀티 레이블 계속 쓰시면 되요 멀티 레이블 지원 하셔야 되면 그래서 사진에 사실에 이 것이 무엇인지를 알려주는 레이블링 만 작업하시면 아 이 학습이 시작될 수 있습니다 그럼 우리가 아 그 스토리지를 작가 들어가볼게요 좀 보시면 이렇게 스토리 자네 사지를 제가 다 올려놨어요 고양이 사진 아 강아지 사진 이렇게 올려놨는데 레이블도 차가 업로드를 해 놓습니다 이렇게 보시면 레이블 요렇게 되어 있죠 어 지금 시간이 많지 않으니까 아주 작은 데이터만 가지고 학습할 수 있도록 여기 위치를 알려 주면 되요 놀라 입을 그리고 이제 이렇게 csv 파일 아까 파일 위치 파일 이름 하고 이것이 무엇인지 알려주는 쌍으로 된 앞에 으로 만들어진 csv 파일을 스토리지 더 올리신 다음에 여 이 안에 멀티 레이블을 하셨다면 이걸 체크 하시면 되겠죠 멀티 레이블을 지원해야 된다면 이렇게 넣으시면 됩니다 그리고 클립 데이터 슬슬 하면 이제 임포트 를 합니다 그 데이터를 아 이제 읽어들이는 과정이 있어요 이렇게 쭉 읽어 들입니다 턱이 약간 시간이 걸리죠 그래서 이렇게 올라오면 아까 보셨던 어요 화면이 되는 거예요 이렇게 2 레이블이 붙어서 사진이 쭉 올라오게 됩니다 그러면 여기 추행 버트 트레이너를 가시면 어 여기 이건 재미 추인 된 결과를 보여주는 건데 이추 레인 유머를 이거 를 눌르시면 이제 막 2 네트웍 속도 때문에 조금씩 많이 걸릴것 같은데요 온리 올라가면 요 버튼을 누르시면 이제 학습 시작됩니다 4 시간이 걸리잖아요 마냥 기다릴 수가 없죠 그래서 학습이다 끝나면 아 버튼 누르시고 다른 일하시면 되요 학습이다 끝나면 이메일로 알려 줍니다 학습이 다 끝났다고 알려주면 제 어 그쪽으로 가서 이제 결과를 보시면 되요 어 이제 올라왔네요 예 지금 아까 올렸던 데이터들이 이렇게 올랐습니다 그러면 확인하시고 뭐 필요하심 여기다 더 넣으셔도 되요 레이블을 최혜인 버튼을 이렇게 지금 이제 데이터 셋이 어떻게 구성되었는지 보여주고 있죠 고양이가 수목의 개관 수출 3개 이렇게 최 링을 하게 되면 이렇게 수출이 니 # 됩니다 이게 끝나면 이메일로 통지가 와여 아 지금 모델이 5 10ml 모델 모모가 아 초인이 끝났다 그러면 api 로 바로 호출할 수가 있습니다 그래서 프레디 t 라고 하는 것이 아 여러분들이 그 만들어낸

데이터를 평가 아 그 실제로 호출해 볼 수가 있습니다 그래서 이 결과가 2 개 고양이를 너무 쉬워서 인지 그냥 100% 에어 지금 제가 준 데이터를 가지고 테스트 란 게 난 오시지 않으면 아마 적당한 비율로 뭐 7대 3 정도로 아이들 류시원 하는 데이터가 있고 아 그 학습하는 데이터로 9분해서 자동적으로 테스트까지 다 완료를 해줍니다 이 벨리 션 도 다 끝난 거예요 지금 이 모델을 어떻게 찾아 면 뒤에 있는 알 아 구글이 가지고 있는 아주 좋은 모델들을 아까 리치웰 한다 그랬죠 아 전의 학습을 하게 됩니다 그래서 그 중에 가장 점수가 좋은 이들 의 신 점수가 좋은것을 추려서 계속 재학생을 시킨 다음에 마지막으로 최종 모델을 여러분들한테 제공하는 거예요 그래서 프로젝트를 가기 쉬게 되면 이렇게 api 호출을 하시면 되요 이게 말 스테이 pi 나 팔던 코드 샘플들이 보이시죠 요 코드로 호출을 하시면 지금 우리가 지금 낙 학습한 이 데이 파 의 모델의 내 데이터를 던져서 결과를 얻어낼 수가 있어 자 그럼 여기는 아직 저에겐 더 이 없어서 그냥 제가 업로드 이미지를 통해서 한번 해보겠습니다 요거는 1천개 정도의 데이터를 가지고 추인을 한 거야 한 몇 분 걸립니다 이 정도 되어 있다면 훨씬 더 데이터가 많으면 많을수록 시간을 오래 드리면 드릴 수록 그 퍼포먼스를 좋았죠 그 정확도가 높아 지게 됩니다 자 그러면 그 누가 봐도 강아 고양이를 올려보겠습니다 이 데이터는 그 캐 글에서 그 어 이 라이센스는 없지만 이런 테스트 용으로 쓸 수 있도록 작은 사진들을 제공합니다 그래서 캐 그를 같은데 가보시면 아 실제 테스트용 사진들을 받을 수 있어요 제가 그 학습한 학습 시킨 경우 1000개 가지고 만든 모델이 고향이라고 이제 알았네요 그쵸 이건 고향 이다 라고 알려 줍니다 지금 쓰고 있는 모델은 사실은 몇 백 개 밖에 안 된거 4 좀 더 큰 걸로 해 볼게요 아 이거 좀 데이터가 더 많은 걸로 미리 제가 추이를 해놨어요 그러면 아까 봤던 블랙 팬서 기억나시죠 한번 볼까요 저는 블랙 팬서 를 학습 시킨 적이 없죠 뭐 라고 대답하는 지 보겠습니다 아까 그 비전 aps 니게 블랙 팬서 라고 했죠 고향 이라고 했으면 좋았을텐데 게 라고 하고 있습니다 아 제가 드리고 싶은 말씀은 머신 너님은 맞는 게 아니에요 학습된 것만 알 수가 있어요 그러니까 우리가 특정한 목적을 가지고 학습을 시켰기 때문에 이게 개와 고양이 지만 9분하는데 그 범주에 들지 않는게 오면 아 잘못된 답을 하게 되는 겁니다 다른 것 한번 해볼까요 어 예를 들어서 어깨가 보셨던 이 트럭 & 라비 쪼 게다가 조금 이상하게 생긴 거 어 를 해보겠습니다 이게 뭔지 아시죠 4 차마 저에게 유튜브 방송이 된다 그래서 말은 하지 않겠습니다 2 데이트 2 이거를 우리 진 에리카는 비전의 입혀야 넣어보겠습니다 뭐라고 대답할까요 이거 락스 받지는 않았을 것이란 얘기죠 비전 api 조차도 4 개처럼 생긴 포유류 라고 말했어 개 종류로 가서 얼굴이 줄 굉장히 좀 강하게 예 오피 됐나 봅니다 그리고 또 다른 친구 4 이 친구는 뭐 에 가까운 시 한번 볼까요 뭐라고 할까요 4 이게 가짜가 아니니깐 피규어 엿짜 나요 가짜가 아니니까 예 제가 더 강하게 나오네요 그래서 개도 있어요 기개 종료 그러니까 반반이 것이 섞여 있으니까 우리가 학습방 건 이렇게 생긴 걸 학습 시키지 않을 거잖아요 자 그러면 우리가 만든 어 곳으로 가기 전에 하나만 더 해볼까요 어 이렇게 손은 들은 고향 입니다 이걸 이걸 뭐라고 해야될까요 고양이 라고 해야 될 것 같을지 않으세요 제 2의 친구의 이름은 해피 라고 제가 아까 나왔던 고양이 해피 라고 아 저는 정했습니다 그린치 이렇게 넣었을 때 어떻게 되는지 볼까요 그래서 기존의 변 이걸 어떻게 판단 할까요 이 고양이만 보고 있는 게 아니죠 아까 말씀드린 것처럼 중첩된 레이어를 보고 있기 때문에 지금 제가 실수 로 이걸 노트북 위해서 랩탑 2에서 찍었기 때문에 테크놀로지가 나왔어요 아 차마 맥북이 라고는 말할 수가 없나봐요 라이선스 때문에 그래서 엘렉트라 디바이스 라고 했습니다 얘는 뭔지도 지금 알지도 못하는 상태에요 자 그러면 우리가 했던 모델로 돌아가 보겠습니다 자 2 이 모델은 각 강아지 하고 고양이만 학습 시켰던 겁니다 그러면 어 아까 보셨던 좀 이상한 것 한번 해볼까요

2 비교 처럼 생긴 이 새는 뭐라고 할까요 개 라고 했습니다 얼굴이 어 개입이 있다고 느껴지는 거죠 e 학습된 모델은 자 그러면 그 아까 보셨던 제가 해피 라고 부르기로 했던 손으로 고양이 한번 가볼게요 2층 보였죠 뭐라고 할까요 이 모델은 게 아니면 고양이 밖에 답을 못합니다 2개밖에 안 날려 줬기 때문에 그래서 이 데이터가 들어가게 되면 4 고향이라고 어 고향이라고 찾았어요 생긴 얼굴이 고양이 처럼 생겼다고 고양이라고 찾은거 얘는 전자장비 같은거 관심도 없어요 이 안에 있는 고양이처럼 생긴 애 를 찾아서 100% 고양이라고 얘기를 했어요 자 그런데 제가 추리닝을 하는 데이터 셋을 아까 그 보셨던 사진들을 츄리닝을 시켰습니다 요 모델의 데이터 셋을 보시면 지금 보이시죠 아 영어로 각도로 제가 사진을 찍어서 계속 찍었습니다 계속 찍어서 아 이 조 2 다르게 해가지고 해피 라고 이름을 줬어요 뭐 이 이렇게 다른 고향 다른 해도 학습을 시켰는데 지금 보시면 해피 라고 하는 것을 알려 주어서 이 이 모델은 이제 얘는 고양이가 아니라 해피 라고 하는 것에 형 이 특징들을 찾아내도록 학습을 시킨 거야 경우 20장 정도의 사진만 추가해서 리치의 일을 한 거야 아까 보셨던 그 꽤 고양이 최인 데이터 에다가 이 데이터만 제가 하나씩 업로드를 해서 레이블링 을 추가하고 어 제약 습을 시켜 로 모델입니다 그러면 이 친구는 2 지금 보시는 해피 라는 친구를 뭐라고 대답할 지 한번 보겠습니다 고향 이라고 할까요 기장 되게 천천히 올라 가네요 예 4 지금 보신 것처럼 회피 라고 쳐서 내죠 100% p 에 가까운 98 퍼슨 99% 확률로 아 이건 해피 다 다른 것 다른 아 모양으로 찐것 해볼까요 요기요 친구는 다른 친구 요거는 제가 이게 전자 장비로 나오는걸 보고 이렇게 그냥 아무것도 없네 플로우에 서너 찍어봤습니다 그럼 이것도 마찬가지죠 이 이 모델은 중첩된 사진을 잘 잘라서 해피 를 찾아냅니다 지금 보시는 것처럼 자신이 화면으로 돌아갈 볼까요 지금 보시는 것처럼 어 2 오토 m 이라고 하는 것은 빠른 시간에 어 2 우리가 원하는 커스텀 모델을 만들어서 우리가 원하는 결과를 얻어낼 수가 있어요 그러면 이게 성능이 떨어지는 거 아닌가 뭐가 대충 만든게 아닌가 싶은데 지금 이게 현존하는 모델 들의 성능을 나타낸 지표입니다 지금 빨간색이 오토 예매 일입니다 두 가지 중요한 것인데 이 그 극을 검색하셔서 이미지 내가 심연의 깊이 디아가 나옵니다 그 안에 아래쪽에 보시면 최근에 2 오토 m 에 레그 퍼포먼스 리조트가 표시가 되어있어요 즉 이 러닝 둘러 또는 한스푼 언행 이라고 하는 기술로 이 모델들을 이 재 학습시 키는 어 학습된 모델로부터 얻어낸 결과가 인간이 프로그램으로 짠 결과보다 훨씬 더 높은 결과들을 나타내기 시작을 했어요 그래서 저 이미지 내 시라고 하는 것이 아 처음 2 개 고양이 같은 이런 차츰 되어 있는 객체를 9분하기 위한 프로젝트 성격이고 여기에 계속 챌린지 가 됐고 이 빔 넌 행 를 가지고 아주 높은 스코어를 낸 것이 최종 결과였습니다 그런데 오토 의미 그 성능을 이겼습니다 중요한 것은 아이 성능 치가 올라가는 가속도의 속도 식 속도의 지금 x 축 이라고 하는 것이 모델의 크기 거든요 모델 일을 크게 만들고 데이터 셋을 많이 넣으면 당연히 시간이 지나면 지날수록 높은 성능을 나타나겠죠 시간이 지나면 지날수록 점점 아 그 정확도가 올라가는 것은 당연합니다 그런데 어떠한 모델보다 도톰 엘은 그 시간이 짧다는 거야 아주 적은 모델만 있어도 이미 이미 잘 다른 것들로 잘 학습된 모델을 사용하기 때문에 우리가 이 것이 맞느냐 또는 어 잘못된 야 방향이 우리가 이걸 애매 를 적용해서 어떤 애플리케이션을 만들 거나 어떤 인사이트를 얻어내려고 하는 데 이 그 이거를 알아내는데 한 일주일 걸려요 계속 돌려보고 아니야 그럼 다시 다른 방법을 가지고 또 해야되는데 5 토해내는 아주 적은양의 데이터도 높은 성능을 나타내기 때문에 빨리 검증을 해볼 수가 있어요 우리의 방향이 옳은지 아 틀리지 그렇다면 비즈니스를 하는 분들은 타임즈 마켓이 굉장히 빨라 지겠죠 let 높아지고 그래서 우리가 어떤 그 옷 ml 관련된 프로젝트를

진행하거나 또는 이걸 적용해서 어떤 실생활에 유용한 일들을 하려고 할 때 이 오토의 멜은 아주 뛰어난 아 저도 아닌 에 아주 뛰어난 모델로 모델을 개발하는 과 개발자 또 과학자 가 아닌 이상 5 탭의 리 훨씬 더 좋은 성능을 나타낼 수 있다 그래서 오토멘 이제 비전이 퍼블릭 뱉어 상태고 내추럴 남기지 그러니까 우리 언어를 그 형태에서 분석해서 아 번역해주는 트랜스 레이 션과 내추럴 남기지 mpp 이라고 하죠 nlp 이라고 하는 부품과 리스닝은 뭐냐 미제 레이블링 을 안 해도 알아서 이 안에 어떠한 것들이 들어 있는지 이것이 무엇을 의미하는지 아 찾아주는 이게 방계 별로 지금 발전하고 있습니다 제가 225 tml 팀 하고 이제 협력 때문에 자주 만나거나 이제 이메일을 보내고 있는데요 아마 다른 것도 똑같이 느낄 텐데 만나는 순간 느껴져야 정말 똑똑한 사람들이 구나 mit 나왔을 것 처럼 생겼더라구요 그래서 그 분들보다 자랄 수 없는 우리들은 2분들이 만들어 놓은 이런 툴들을 이용해서 빨리 실생활에 유용한 애플리케이션을 만들 수가 있겠죠 아 다른 세션에서 도 아마 이어지는 세션에서 바로 이어 질 텐데요 2ml 기술이 iot 란 결합되면 이것이 애칭이 컴퓨팅 땅으로 내려 가야 됩니다 왜냐하면 공장에서 어떤 일을 하는데 api 를 계속 호출하고 클라우드 서비스 왔다갔다 할 수 없는 환경이 될 수 있겠죠 그게 아트팩토리 훨씬 비트 이거 나요 또 놈 원격 인터넷에 연결이 안되는 멋 이 그리고 나 뭐 여러가지가 있을 수 있잖아요 그래서 이것이 이제 치 컴퓨팅 이라고 해서 다시 i 5th 컴퓨팅이 아 각각을 받기 시작했는데 뭐 이 학습된 머신 러닝 모델이 우리가 go 템을 통해서 만들었어요 그래서 우리의 2패로 호출 할 수 있잖아요 그때 이모들이 자동적으로 애칭 딴 의 아 요렇게 칠하는 것 까지 흘러 가서 거기서 바로 인 프랑스를 할 수 있도록 하는 기술도 저희가 어나 우승을 했고 그때 사용돼 이애 채 달에는 아 저 1센트 동전 안에 두 개의 들어 있는 저 저것이 바로 htp 유 라고 하는 tpu 버전 그 클라우드의 tpu 를 애초에 딸에서 쓸 수 있도록 만든 버전이에요 속도가 굉장히 빠릅니다 뭐 초 답네 때 권혜인 프로세스를 할 수가 있어요 그 외에 찍 아 tpu 까지 같이 활용을 하게 되면 이제 실생활에 굉장히 활용할 수가 있고 오늘 보신 내용은 다 개와 고양이 얻죠 그럼 도대체 개 고양이를 9분하는 기술이 도 실 뭐가 이렇게 중요 하길래 왜 n 즈음 교수도 고양이 부터 했을까 생각을 해보면 실제로 이게 개 고양이 문제가 아닌 다이 오토메 메리 라고 하는 것은 몇 시간 동안 트렌드인 결과가 아까 높은 성능을 나타낸다 고 했죠 실제로 저희가 테스트를 진행을 했었고 고객사와 밖에 있는 1층에 lg cns 부스 에 가시면 이현정 내용들을 좀 더 자세히 아실 수가 있는데 수년간 l 뛰어난 엔지니어들이 만든 어 아주 잘 만들었 겠죠 그 모델과 성능이 유사하거나 또는 더 높은 성능을 나타냈을 그러면 우리가 빨리 적용할 수 있고 빨리 더 발전 시킬 수가 있겠죠 지금 보시는 얘는 우리가 많이 쓰는 이 스마트폰이나 tv 에 패널들이 저의 lcd led 패널들이 공장에서 상 집으로 배송되는 전에 출하 되기 전에는 비전 검사 라는걸 합니다 이 구간 기존에는 육안으로 했고 또 장비가 들어오면 롤 베이스로 뭐 좀 찌그러진 게 있나 없나 이런걸 보면서 했는데 이 머신 러닝 이 적용되면 이제 인간 보다 훨씬 더 뛰어나게 거의 99.9% 의 확률로 그 안에 있는 흠 결 d 팩트를 자동으로 찾아 낼 수 있는 시대가 된 거예요 그리고 앞서 보셨던 것처럼 iot 를 적용하면 그 사진을 찍는 와인들이 공장 안에 어떤건 창문 쪽에 가까이 있고 어떤 가운데 있겠죠 저도 다르고 습도도 달라요 그럼 사진이 다르게 나온다고 합니다 그러면 각각의 스팟에 맞는 별도의 모델들을 따로따로 배포 에서 정확도를 높일 수 있는 이런 생각에 맞습니다 그래서 이 내용은 아 제가 8월달에 금액 넥스트 에서 구글 x 트 에서 저기 계신 이 두 분이 오늘 키노트 하셨던 인종 사장님하고 lg cns 에 에 편식은 전무님 이신데 시 티오프 께서 같이 이 내용을 발표 하셔서 여러분들 유튜브 안에서 직접 살펴 보실 수도 있고 바깥에 있는 부스에서 좀 더 자세히 혹시 관심있다면 아 그런데 이 비전 이라고 하는 것은 이 비전 검사 뿐만 아니라 지금 이러한 일들은 굉장히 많이 일어날 수가 있어요 자동차가 찍으러 졌는데 과연 그 수리비는 얼마 쯤 나올까 이것도 저희가 api 로 제곱을 하는데 이런 식의 다양한 산업군 에서 이 비전을 통해서 9분해 내는 이러한 기술들이 실제로 사용될 수가 있습니다 그래서 어 2 오토 예매를 쓰게 되면 전문가가 아니어도 아주 뛰어난 수준의 전문가 보다도 뛰어난 수준의 모델을 맘 안에 모델을 만들어서 그 고양이가 해피 인질 알 수가 있게 되는 거고요 아 고품질의 쉽게 이 실제로 적용할 수 있다는 겁니다 그래서 많은 분들이 이미 이제 고객들이 사용을 하기 시작했고 여러분들도 여기 클라우 다 그걸 다 컴에 / 하시고 오토 m 을 치시면 퍼블릭 베타 이기 때문에

크레디 그 디벨로퍼 크레딧 그 첫 해 주는 1년차에 클릭 갖고도 충분히 많은 걸 테스트 하실 수가 있습니다 제가 준비한 내용이 오늘 여기까지 구요 혹시 궁구하여 있으면 더 아 저한테 질문 주시면 좋겠습니다 감사합니다