지난 4월 9~11일까지 미국 라스베가스에서 열린 Google Cloud Next에 다녀왔다. Google Cloud는 잘 알지는 못하지만, 회사에서 많이 쓰기도 하고 팀의 업무에 포함되어 있기에 작년부터 올해는 Google Cloud Next에 가려고 생각했고 그동안 지원받아서 많이 갔기 때문에 이번엔 티켓만 받아서 자비로 갔다 왔다.
미국에 가면 보통 10일 이상은 있는 편인데 작년 말에 샌프란시스코에 갔다 오기도 했고 4월이라 그런지 앞뒤로 관심 갈 다른 콘퍼런스도 없어서 고민하다가 이번엔 Google Cloud Next만 다녀왔다.
Day -1
이번 Google Cloud Next는 라스베가스 아래쪽의 Mandalay Bay 호텔에서 열렸는데 행사에 맞춰서 Anthropic의 광고도 하고 있었다. 숙소는 그 건너편인 Nirvana Hotel로 잡았다.
Mandalay Bay에서 가까운 곳 중에서 가장 가격이 쌌다. Inn 같은 느낌인데 뭔가 액션 영화에서 주인공이 추격자들을 피해서 도망 다니는 Inn이 생각났다. 보통 이런 곳에서 커튼 밖으로 누가 쫓아온 거 확인하고 도망가던데 그런 느낌에 비해서는 지내기에 나쁘지 않았다. 침대 2개로 예약했는데 방에 침대가 1개밖에 없어서 한참을 그걸로 논의하고 다음 날 간이침대를 넣어주기로 해서 겨우 해결이 됐다.
저녁에는 회사 동료들과 예약해 놨던 Gordon Ramsay 스테이크를 먹었다. 코스 요리로 먹으니까, 사인이 있는 메뉴판을 기념으로 해주었는데 아마 내가 먹은 음식 중에서 가장 비싼 음식이 아니었나 싶다. 즐거운 자리고 맛있었지만, 가격을 생각하면 엄청 맛있거나 그러진 않았다.
Day 0
둘째 날은 콘퍼런스 전날이라서 그랜드캐니언에 관광을 갔다 왔다. 6년 전에 그랜드 캐니언을 갔다 왔는데 그때는 몰랐지만, 그때 간 곳은 South Rim이었고 이번에는 West Rim이었다.(South Rim이 더 유명하다고 한다.) 라스베가스에서 버스를 타고 3시간인가 갔는데 관광을 좋아하지 않는 나한테도 그랜드캐니언이 주는 압도감을 볼 때마다 어마어마하다.
전화가 되지 않는 지역에 가니 재미난 경험을 했는데 미국에서는 아이폰이 위성 전화가 되기 때문에 전화가 끊기니 SOS로 바뀌고 위성을 사용할 수 있다고 나왔다. 메시지 앱을 켜니까 바로 위성을 찾기 시작했는데 신기하게 화면에 위성 방향으로 움직이라고 안내해 준다.
위성 방향을 보고 있으면 연결되고 문자를 보낼 수 있게 된다. 그래서 직장 동료와 문자 테스트를 해봤는데 한국 번호라 그런지 다른 이유가 있는 건지 문자가 가지 않았다. 이런저런 확인을 하다가 iMessage도 위성을 사용할 수 있는 걸 깨달았는데 평소 인터넷이 될 때와 다르게 문자가 iMessage로 전환되진 않았다. 그래서 중간에 인터넷이 될 때 iMessage로 서로 연결해 놓은 다음에 다시 전화가 끊기는 지역에 갔을 때 위성으로 보내보니 메시지가 아주 잘 갔다. 화면에 안내나 경험도 꽤 좋았고 음영지역이 많은 미국에서는 꽤 유용한 기능이라는 생각이 들었다.
배지 픽업은 미리 해두면 편하기 때문에 등록하고 배지를 받았다. 저녁에는 Mega Night 행사가 있었기 때문에 거기서 저녁을 먹고 왔다.
Day 1
이번 콘퍼런스에서 캐치프레이즈처럼 사용하던 The new way to cloud가 곳곳에 쓰여 있었다.
Opening Keynote
키노트는 Mandalay Bay 안에 있는 Michelob Ultra Arena라는 경기장에서 진행되었다. 라스베가스에 오면 호텔 규모에 종종 놀라곤 하는데 그냥 호텔 건물처럼 보이지만 엄청 커서 걷기도 많이 걷지만, 이 안에 이렇게 큰 경기장이 있는지 생각도 못 했다. 시차 적응 때문에 30분마다 깨면서 잘 못 잤지만 잠이 안 와서 새벽처럼 일어나 있었기 때문에 키노트 1시간 전에 도착해서 꽤 앞에 앉아서 볼 수 있었다.
9시가 되자 Veo 2로 만든 30 카운트다운 영상으로 키노트가 시작되었다. 콘퍼런스에서 발표된 내용은 정리된 글에서 더 자세히 알 수 있을 거고 인상적인 부분만 정리했다.
Cloud Wide Area Network는 곧 출시한다는데 퍼블릭 인터넷 대비 40%나 빠르다고 하는데 비용이 얼마나 나올지는 잘 모르겠다.
TPU의 7세대 Ironwood도 공개했다. 하드웨어에 관심이 많은 건 아니라서 그동안 6세대까지 나왔는지도 몰랐지만, 그동안 TPU가 좋다는 얘기는 많이 들어왔음에도 7세대에서 벤치마크로 보여준 성능 향상이 엄청나서 꽤 놀랐는데 작년보다 10배 빠르고 29배 효율적으로 되었다고 한다.. 물론 내가 ML 엔지니어는 아니라서 TPU를 사용하지도 않지만 보통 가격이 너무 비싸서 써볼 일이 있을 거 같다고 생각하진 않았다.
AI Hypercomputer, Research and Models, Vertex AI, Agents 이 네 단계의 스택으로 설명했다.
맨 밑의 AI Hypercomputer는 TPU를 포함해서 스토리지나 클러스터 등을 소개하고 GKE Inference Gateway나 vLLM on TPU를 소개했다. Gemini on Google Distributed Cloud도 소개했는데 Gemini를 온프레미스에서 돌릴 수 있다는 것인데 정확히 어떻게 동작하는지는 모르지만, 여러 이슈로 인해서 퍼블릭 클라우드의 AI를 사용하지 못하는 환경에서는 꽤 매력적인 소식이 아닌가 싶었다.
Research and Models에서는 Gemini 2.5 Pro뿐 아니라 Chirp, Lyria, Vel 2 등 다양한 모델의 개선을 소개했다. 여기서 새로운 모델을 발표한다기보다 기존 모델의 개선을 더 많이 얘기한 거 같고 모든 영역에서 AI 모델을 가진 유일한 회사라고 자랑했다.
Vertex AI 계층에서는 며칠 전에 나온 Llama 4도 지원한다고 소개하고 Agent를 만들 수 있는 Agent Development Kit과 Agetn2Agent 프로토콜을 발표하고 Google Agentspace도 소개했다.
이후 Agent의 사용 사례를 얘기하면서 식물에 어떤 비료를 사야 하는지 몰라서 웹사이트에서 AI 에이전트한테 상담하는 데모를 보여주었는데 이게 꽤 재미있었다. 목소리로 AI와 대화를 하는데 카메라를 켜니까 식물을 인식해서 적합한 비료를 추천해 주고 가격 할인에 대해서 협상하자 자신의 권한 밖이라고 매니저에게 문의하고 어드민 사이트에서 적절한 할인율을 승인하자 AI 상담원이 다시 고객에게 가능한 할인을 알려주고 거기서 바로 결제까지 하는 데모였다. 현실과 얼마나 차이가 있을지 모르지만 실제로 이렇게 된다면 꽤 편하겠다는 생각이 들었다. 이는 Customer Engagement Suite라는 제품으로 나온 거 같은데 정확히 뭘 제공하는지는 모르겠다.
Ask an SRE
Google Cloud Next에 참석하기로 한 뒤에 Twitter를 하다가 Ask an SRE at Google Cloud Next '25라는 링크를 봤다.
콘퍼런스장에서 Google SRE를 만날 수 있는 시간이라고 해서 고민하는 문제에 대한 구글의 접근방법을 좀 들어볼 수 있을까 해서 신청했더니 30분의 일정을 잡아주었다. 시간이 짧기 때문에 미리 어떤 얘기를 하고 싶은지와 우리 회사의 서비스 특징, 규모, SRE팀의 규모, 겪고 있는 문제 등을 알려주면 좋겠다고 해서 정리해서 보내줬다.
행사장 한곳에 마련된 Customer Engagement Center에 가니 회의실 같은 곳에서 2명의 Google SRE를 만날 수 있었다. 사실 회의실이라 마련된 곳이 방음이 잘 안되게 되어서 옆방의 목소리가 울려 들려서 잘 들리지 않았던 데다가 말이 너무 빠르셔서 영어 잘 못하는 나로서는 제대로 이해하기 어려웠다.
시간이 짧아서 많은 주제에 관해 얘기하기는 어려웠는데 인프라나 서비스의 인시던트 등에 대한 알림을 어떻게 하는지를 물었다. 요즘 분위기가 그렇듯이 Gemini로 얼렀을 분리 해서 관리하고 있다고 얘기했다. AI 도입 전 얘기로 계속 끌고 가니까 이런저런 화면도 보여주셨는데 보낸 알림을 다 분류해서 매트릭으로 쌓고 있었고 시스템이 어떻게 생긴 줄은 모르지만, 이어진 액션, 그러니까 이 알림이 오탐인지 애플리케이션 버그였는지 네트워크 이슈였는지까지 연결해서 추적하고 있었다. 지금은 AI가 분류하지만, 예전에는 온콜하는 사람이 분류하고 정리했다고 한다. 당연한 얘기기도 하지만 나한테는 요즘 고민하던 문제의 실마리가 좀 풀리는 느낌이었다.(영어를 잘했으면 훨씬 좋았을텐데...)
재미난 시간이었지만 짧은 시간에 서로 맥락을 모른 채 얘기를 하니 확실히 유용한 대화가 오가긴 쉽지 않았다.
Beyond metrics: Use DORA and AI to build a world-class DevEx
요즘 분위기대로 AI가 대세라 어디 가든 AI 얘기뿐인데 Google Cloud Next는 인프라 관련이기도 하고 나도 SRE로 일하다 보니 AI보다는 인프라 관련된 발표를 더 찾아다녔다. 그런 발표 중에서 제목이나 설명은 맘에 드는 데 좀 실용적인 얘기를 해줄 것인지, 아니면 그 문제는 GCP의 OO를 쓰면 해결된다고 끝나는 홍보성 발표일지는 미리 파악하기 어려워서 세심하게 골랐는데 그런 발표 중 하나였다.
이 발표는 소위 DORA라고 부르는 DevOps Research and Assessment의 4가지 메트릭과 DORA 보고서를 통해 AI가 어느 정도 영향을 주는지 설명하는 세션이었다.
DORA의 Software Delivery의 퍼포먼스를 측정하는 4가지 메트릭 중 Throughput에 해당하는 Lead time for changes, Deployment frequency, Stability에 해당하는 Change fail rate, Failed deployment recovery time를 설명해 주고 Throughput과 Stability는 트레이드 오프 관계이면서도 둘 다 낮을 수도 있고 둘 다 높을 수도 있다고 설명했다. 보통 DORA 얘기할 때 가장 유명한 메트릭이기도 하다.
DORA 리포트에도 사용하는 DORA Core 모델도 정리해서 알려준 것도 좋았다. DORA가 아주 이해하기 어렵고 그런 것은 아니지만 올해 좀 DORA를 자세히 볼 생각이 있어서 괜찮았다.
DORA 2024 리포트가 나와서 여기서 AI가 업계에 어느 정도에 영향을 주고 있는지도 정리해 주었다. 생산성에 얼마나 영향을 주었는지, 문서나 코드가 얼마나 영향을 주었는지 등도 정리해서 알려주었지만, AI 도입의 영향에서 배포 관련해서는 부정적인 영향을 주고 있다는 게 흥미로웠다. 리포트를 좀 자세히 봐야 할 것 같은데 또 작년 리포트라서 올해는 어떻게 달라질지도 궁금해진 부분이었다.
재밌게 듣고 있었는데 발표 뒷부분은 Harness의 CEO가 나와서 DORA를 적용한 Harness의 플랫폼을 소개하면서 패널 토의처럼 바뀌어서 그냥 나왔다. 처음 들은 회사라서 나왔는데 나중에 보니 그래도 배포 쪽 SaaS에서 어느 정도 알려진 회사로 보였다.
Sphere
저녁에는 이제 라스베가스의 명물이 된 sphere를 보러 갔다. 3년 전에 왔을 때는 sphere가 없었기 때문에 이번에 처음 봤다.
영상으로 많이 보긴 했는데 영상으로 보던 것처럼 실제로 봐도 현실감이 없는 압도감이었다. 아쉽게 노란색 팩맨은 한 번도 못 봤지만, 다양한 영상이 sphere 구체에 나왔고 이번에 sphere와 Google Cloud가 협업해서 1939년 만들어진 오즈의 마법사 영상을 sphere에 맞게 영상을 재구축했다. sphere가 안에는 극장이라고 할 수 있는데 여기에 상영할 영상은 화질이나 화각이 엄청 좋아야 하므로 오즈의 마법사를, AI를 이용해서 화질을 올리고 없는 영역을 새로 만들어냈다고 한다.
실제 상영은 8월인가부터 한다는데 화요일에 Google에서 전세 내서 참가자한테 일부 보여줬다는데 나는 이때는 보지 못하고 따로 관람 기회가 생겨서 보러왔다.
Postcard from Earth라는 지구 관련 다큐 영상을 봤는데 50분 정도로 내용은 별것 없었지만, 압도감은 엄청났다. Shpere 자체가 구형이라서 좌석도 무서울 정도로 경사가 높게 되어 있었는데 전체에 영상이 나오니까 그 압도감이 비현실적으로 느껴질 정도로 압도적이었다. Apple의 Vision Pro가 있어서 사실 비슷한 느낌이려나? 생각했는데 실제로 VR이 아니라 직접 보는 스크린의 규모는 너무 좋아서 라스베가스에 갔다면 한 번 정도는 볼만하다는 생각이 들었다.
이 글은 Google Cloud Next 2025 참석기 #2로 이어진다.
Comments