TECH

인공지능부터 픽셀까지, 구글 I/O 정리

안녕하세요, IT 칼럼니스트 최호섭입니다. 어김없이 5월, 구글I/O가 열렸습니다. 물론 올해도 현장을 찾지는 못했고, 온라인으로 모든 이벤트가 열리고 있어요. 이제는 익숙해질...
안녕하세요, IT 칼럼니스트 최호섭입니다. 어김없이 5월, 구글I/O가 열렸습니다. 물론 올해도 현장을 찾지는…

2022. 05. 12

안녕하세요, IT 칼럼니스트 최호섭입니다. 어김없이 5월, 구글I/O가 열렸습니다. 물론 올해도 현장을 찾지는 못했고, 온라인으로 모든 이벤트가 열리고 있어요. 이제는 익숙해질 만도 하지만 마음 한 켠으로는 여전히 아쉬움이 남습니다. 이 개발자 행사는 단순한 기술 발표나 제품 공개의 자리가 아니라 구글의 생태계 안에서 여러 가지 관심사를 가진 사람들이 모이는 개발자 중심의 축제거든요. 그 분위기와 공기는 단순히 정보나 지식 외에도 큰 에너지를 주지요. 그래서 저도 되도록이면 매년 직접 현장을 찾곤 했습니다.

올해도 키노트를 비롯한 발표들이 온라인으로 이뤄지긴 했습니다. 하지만 키노트는 지난 2020년, 2021년처럼 캠퍼스 안의 작은 무대가 아니라 지난 몇 년간 쭈욱 모여 왔던 구글 마운틴뷰 캠퍼스 옆에 있는 쇼라인 앰피시어터에서 열렸습니다. 객석은 개발자들 대신 구글 직원들이 채운 것 같지만 화면으로 비춰지는 분위기는 조심스럽게 팬데믹 극복을 이야기합니다. 아마도 내년 2023년 구글I/O는 다시 이곳에서 만나자는 메시지인 것이지요.


“구글 I/O, 내 재미 돌려줘요~”

1400_8.17.11

키노트는 두 시간을 가득 채웠습니다. 여러 가지 이야기가 나왔는데, 결론을 먼저 이야기하자면 ‘썩 재미있지는 않았다’고 할 수 있어요. ‘재미’의 의미는 여러 가지가 있겠지만 기술로 세상을 깜짝 놀라게 하던 구글의 패기가 보이지 않았다고나 할까요? 여전히 구글은 새로움을, 또 기술로 세상을 이롭게 하려는 의지를 보였지만 ‘미쳤다!(Crazy)’라는 탄성을 이끌어내지 못했다고 할 수 있겠네요.

하지만 구글의 메시지는 이제 단순히 흥미를 넘어서 우리의 일상에 직접적으로 영향을 끼치기 때문에 급격한 변화보다도 명확하고 꾸준한 비전이 더 중요한 시기라는 것은 부정할 수 없습니다. 그런 면에서 지난 몇 년 동안 이어져오던 ‘더 나은 삶을 위한 기술’에 대한 구글의 목표는 올해도 어김없이 제 갈 길을 걷고 있습니다.

1400_1

구글은 애초 검색으로 시작했고, 검색을 통해서 세상의 정보를 전달하고, 소통하고, 연결하는 방법으로 비즈니스가 확장되어 왔습니다. 그래서 검색 방법도 계속해서 발전하고 있지요. 구글은 ‘멀티 서치’를 꺼내 놓았는데, 세상의 정보를 복합적인 정보로 검색한다는 겁니다. 사람들의 검색 패턴은 단순한 단어, 혹은 짧은 문장이 아니라 ‘10년쯤 전에 일본을 배경으로 한 개와 할아버지에 대한 영화가 뭐지?’처럼 수수께끼 같은 질문으로 바뀌고 있습니다. 그러니까 정보와 정보 사이의 맥락을 잘 읽을 수 있어야 하는 겁니다.

1400_8.18.09

구글이 내놓은 멀티 서치도 바로 이런 접근에서 시작됩니다. 어떤 옷이 마음에 들어서 사진을 찍어서 이미지를 검색하되, ‘초록색’이라고 한 마디를 덧붙이면 똑같은 디자인의 초록색 옷이 검색되고, 바로 구입할 수 있게 연결되는 것이죠. 모르니까 검색을 하는 것이고 검색 엔진은 그 의도를 찰떡같이 알아들어야 합니다.

1400_8.18.55

1400_5

또 하나의 예가 공개됐는데 바로 이번 키노트의 씬 스틸러, ’잡채’입니다. 우리야 딱 봐도 너무나 잘 아는 음식이지만 전 세계 인구 중에서 이 알록달록 예쁜 ‘누들(noodle)’이 어느 나라 음식인지, 무슨 맛인지, 어디서 먹을 수 있는지 전혀 알 수가 없죠. 그래서 사진을 찍고 구글에 검색합니다. 그리고 이미지 옆에 nearby(근처)라고 한 마디를 입력하면 주변에 잡채를 맛볼 수 있는 한국 음식점들과 맛, 평가 정보들을 볼 수 있습니다. 이미지 하나로 오프라인의 음식 경험이 만들어지는 과정입니다.


“인공지능으로 세상을 이롭게…”

1400_2

구글이 이렇게 인공지능 기술을 덧붙여서 기존 서비스를 우리 세상과 더 밀접하게 만드는 단골 예는 몇 가지가 있습니다. 이번에도 자리를 맡아 놓은 것처럼 번역, 지도, 구글 어시스턴트가 무대에 올랐습니다. 구글 번역은 이미 우리가 많이 쓰고 있지요. 이번에 구글 번역에는 24개의 새로운 언어가 새로 포함됐습니다. 그런데 모두 아주 낯선 언어입니다. 인도, 아프리카, 남미의 소수 언어가 대부분을 차지했기 때문입니다.

구글이 언어를 추가하는 건 전혀 새로운 일이 아니지만 이번에는 소수 언어, 즉 이용자가 적고, 그만큼 데이터도 적은 언어들인 것이지요. 대개 번역의 질을 높이려면 아주 많은 데이터가 필요하고, 해당 언어와 영어 사이의 번역 정보를 기반으로 언어를 학습하는 방식이 쓰입니다. 그런데 이번에 선보인 기술은 영어가 필요 없이 해당 언어 자체를 직접 학습하고 이해하는 방식을 활용했습니다. 영어와 관련된 데이터를 따로 골라내지 않아도 되니 데이터 확보와 학습이 더 쉬워진 셈입니다. 그래서 결과적으로는 기술의 혜택에서 조금 밀려나 있던 언어권에도 번역을 통해서 세상의 모든 정보에 더 쉽게 접근할 수 있는 기회를 열어준 셈입니다.

1400_8.29.28

1400_3

지도는 아주 생동감 넘치게 바뀌었습니다. 이미 구글 지도는 도시의 정보를 어느 정도 입체로 구현해 두긴 했는데, 이번에는 실제 이미지를 보는 것처럼 도시를 아주 생동감 넘치게 표현합니다. 건물의 색과 디테일을 정교하게 보여주는 것이지요. 이건 따로 구글이 정보를 수집하고, 하나하나 만든 것이 아니라 머신러닝이 이미 구글 지도에 쌓여 있는 데이터들을 학습해서 실제처럼 그려내는 겁니다. 여기에 실시간 날씨와 밤낮의 풍경이 적용되어서 아주 그럴싸한 지도가 만들어지는 겁니다. 키노트에서는 런던을 배경으로 했는데, 익숙하게 보던 도시를 내려다보는 것만으로도 다시 여행에 대한 의지가 솟아오르는 것 같습니다.

1400_8

구글 어시스턴트 역시 인공지능으로 ‘눈치’가 빨라졌습니다. 구글 어시스턴트와 대화를 나누려면 ‘헤이 구글’이라는 콜 사인을 외쳐야 했는데, 네스트 허브 맥스처럼 카메라와 센서가 달린 기기가 있다면 눈을 마주치는 것처럼 쳐다보는 것만으로 대화를 시작할 수 있습니다. 거리, 머리 방향, 시선 등 100여 가지의 조건을 바탕으로 ‘아, 이 사람이 말을 걸려는 거구나’라는 것을 알아채는 것이죠. 우리가 사람과 대화를 할 때 이름을 불러서 말을 시작하기도 하고(헤이 구글), 어깨를 툭툭 치기도(콜 버튼, 움켜쥐기 등) 합니다. 그리고 때로는 눈을 마주치는 것으로 바로 대화를 시작하죠. 구글 어시스턴트는 이런 대화의 경험에 디테일을 반영했다고 보면 됩니다. 우리는 더 자연스럽고 간단하게 쓰지만 그 안에 복잡한 기술이 들어 있는 거죠.

이쯤 되면 떠오르는 게 있죠. 그럼 구글 어시스턴트 기기는 항상 나를 쳐다보고 있는 것 아니냐, 나를 감시하는 것 아니냐는 겁니다. 어쨌든 구글은 이런 모든 인공지능 관련 기술에서 부당하게 허가받지 않은 정보를 수집하고 전송, 활용하지 않는다고 못을 박았습니다. 네스트 허브 맥스 역시 ‘눈 맞춤’을 판단하는 것은 서버 통신이 아니라 기기 자체에서 머신러닝 모델이 판단하는 겁니다. 물론 불안하다면 카메라를 물리적으로 가려두는 스위치도 달려 있지요.


“모든 것은 보안에서 시작”

1400_8.21.11

구글은 모든 것이 보안, 사생활 보호에서 시작된다고 말합니다. 네, 가장 예민하지만 동시에 가장 재미없는 부분이죠. 저도 “또야?”라는 말이 나왔는데 당연한 일이고, 중요한 일이기도 합니다. 구글은 늘 개인정보를 함부로 수집하고, 남에게 팔거나 광고에 멋대로 활용하지 않는다고 말해 왔습니다. 사생활 보호의 시작은 이용자 정보를 모으지 않고, 누구인지 식별하지 않고, 기기와 앱이 데이터에 접근하지 못하도록 제한하는 데에 있다는 것이 구글의 설명입니다.

이번에 새로 더해진 ‘내 광고 센터(My Ad Center)’는 이용자가 직접 광고에 대한 선호도를 조정할 수 있는 기능입니다. 구글의 서비스들이 내 개인정보를 광고에 활용하는 대신 내가 직접 광고 카테고리를 고를 수 있는 것이지요.

7

인터넷 속 개인정보도 이제는 수습할 때가 됐습니다. 인터넷을 통한 ‘뒷조사’는 사실 너무 쉽습니다. 사람들은 늘 인터넷에 접속되어 있고, 어딘가에 흔적을 남기기 때문이지요. 구글은 개개인이 사생활과 관련된 정보를 숨길 수 있도록 선택지를 꺼내 놓았습니다. 간단하게 은행 계좌, 신용카드 번호, 전화번호, 주소 등 개인 정보들이 검색되지 않도록 숨기는 것이지요.

1400_6

이처럼 개인 정보, 사생활 데이터는 이미 우리의 기기부터 인터넷 서비스 전반에 걸쳐 수십 년 동안 뿌려져 왔습니다. 이를 막는 방법 역시 기술이 필요하지요. 구글은 딥 리서치, 인공지능, 하드웨어, 클라우드 등을 복합적으로 이용해서 사생활 침해를 막는 ‘프로텍티드 컴퓨팅’이라는 새로운 개념도 발표했어요. 한 마디로 보안을 딱 걸어 잠그는 컴퓨팅 환경을 제공하겠다는 것이죠.


“픽셀이 고생이 많다…”

1400_8.00.48

긴 키노트의 끝은 픽셀, 구글의 하드웨어가 맡았습니다. 기다리던 소식들 사이로 ‘할 이야기가 부족했나’ 싶을 만큼 지금 당장 만나지 못할 기기에 대한 정보들이 많아서 약간은 어리둥절하기도 했습니다. 구글은 소문으로 꾸준히 나오던 픽셀 6a와 픽셀 워치, 픽셀 버즈 프로를 공개했고, 기대하지도 않았던 픽셀 7과 픽셀 태블릿도 발표했습니다. 픽셀 7은 올해 가을, 태블릿은 내년에 출시할 계획인데 벌써 윤곽을 꺼내 놓은 거죠.

1400_11

1400_8.01.49

1400_8

눈여겨 봐야 할 것은 픽셀 6a입니다. 픽셀의 a시리즈는 보급형, 혹은 중급기 정도로 꼽히는데, 최고의 프로세서가 아니라 한 단계, 혹은 두 단계까지 낮은 프로세서를 쓰고, 그 격차를 클라우드와 인공지능으로 풀어내는 기기라고 볼 수 있습니다. 그런데 이번에는 픽셀 6, 그리고 픽셀 6 프로에 들어간 구글의 ‘텐서’ 프로세서를 그대로 씁니다. 마치 아이폰SE에 아이폰13의 A15 바이오닉이 들어간 것과 비슷하죠.

구글은 이 프로세서를 통해서 거의 비슷한 경험을 주겠다고 밝혔습니다. 하지만 기기의 값은 449달러로 거의 반값에 살 수 있습니다. 라인업의 구분이 조금 애매하긴 하지만 구글의 플래그십은 이제 픽셀 7으로 넘어가기 때문에 픽셀 6a와 1세대 텐서 프로세서를 조금 낮은 기기로 내리는 것이지요. 그래서 구글은 가을에 나올 픽셀 7의 윤곽을 이번에 함께 발표했습니다.

1400_8.05.35

픽셀 워치도 공개됐죠. 디지털 크라운이 달려 있고 매끄러운 곡면 커버가 눈에 띄는 스마트워치입니다. 아직 세부적인 내용이 공개된 것은 아니지만 지난해 삼성전자와 함께 내놓은 웨어OS 4를 기반으로 하고, 구글의 전용 런처를 씌운 것으로 보입니다. 구글은 2019년 인수했던 핏빗의 웨어러블 관련 기술들을 픽셀 워치에 넣어서 실시간 심박수, 수면 체크 등 다양한 건강관련 기술을 보여주겠다고 발표했습니다.

1400_15

조금 놀랐던 것은 태블릿입니다. 안드로이드 태블릿의 인기가 예전 같지는 않지만 큰 화면에 대한 수요는 여전합니다. 구글도 안드로이드에 태블릿 관련 UX를 보강하고, 기기간 연동 기술을 넣으면서 스마트폰과 태블릿이 자연스럽게 이어지도록 했습니다. 블루투스 기기도 한번에 갖고 있는 모든 기기에 페어링된다고 하는데, 이런 부분은 애플과 닮아 있는 것 같지요.

하지만 이 태블릿은 2023년에 출시됩니다. 너무 일찍 공개됐지요. 아쉽지만 꽤 오래 기다려야 할 것 같습니다. 대신 소문으로 돌던 접는 디스플레이 픽셀 스마트폰은 나오지 않았습니다. 가능성이 아주 없는 것은 아니지만 당장은 현실적인 기기로 먼저 확장하는 것으로 보입니다.

구글은 점점 더 하드웨어에 열심인 것 같습니다. 구글은 플랫폼, 생태계, 소프트웨어를 중심에 두고 있지만 최근의 흐름은 이를 만족스럽게 처리할 수 있는 하드웨어에 대한 고민이 함께 뒤따릅니다. 이는 애플, 마이크로소프트도 마찬가지지요.

About Author
최호섭

지하철을 오래 타면서 만지작거리기 시작한 모바일 기기들이 평생 일이 된 IT 글쟁이입니다. 모든 기술은 결국 하나로 통한다는 걸 뒤늦게 깨닫고, 공부하면서 나누는 재미로 키보드를 두드립니다.