요즘 기술 발표회에 가면 늘 '인공지능'이라는 단어가 마치 만병통치약처럼 등장합니다.
이번에도 예외는 아니었죠.
애플이 이번에 조용히 풀어놓은 몇 가지 개선 사항들을 보면, 마치 거창한 혁신을 보여주기보다는 '이 정도면 충분히 편리해졌지 않나?' 싶은 수준의 디테일한 업그레이드들이 주를 이룹니다.
그중 가장 눈에 띄는 건 사진 속의 사물을 보고 레시피를 추천받는 기능 같은 것들입니다.
키노아 그릇 사진을 찍으면 비슷한 아침 식사 레시피가 툭 튀어나오는 식이죠.
겉보기엔 정말 신기하고 편리해 보입니다.
'와, 이제 사진만 찍으면 요리까지 알려주네?' 싶은 반응이 나올 만합니다.
하지만 여기서 한 발짝 떨어져서 관찰해 볼 필요가 있습니다.
이 기능의 진정한 목적이 '사용자에게 요리 영감을 주는 것' 그 자체일까요?
아니면, 사용자가 외부의 거대한 검색 엔진(예를 들어 구글)을 거치지 않고, 애플이 제공하는 내부 생태계 안에서 '다음 행동'을 결정하도록 유도하는 것일까요?
후자에 가깝다는 느낌을 지울 수가 없습니다.
사진 속의 사물을 인식하고, 그 정보를 바탕으로 관련 웹사이트로 사용자를 직접 연결하는 과정은 매우 매끄럽습니다.
마치 사용자가 스스로 검색할 필요성을 느끼지 못하게, 가장 자연스러운 경로를 미리 깔아주는 느낌이랄까요.
<br>
이러한 흐름은 사실 이번에 공개된 레시피 기능에만 국한된 이야기가 아닙니다.
애플이 오랫동안 시도해 온 패턴, 즉 '사용자 경험의 점진적 내부화'의 연장선상에 있습니다.
예전부터 사진 속 물체를 손가락 터치만으로 깔끔하게 잘라내어 메시지나 다른 앱에 붙여넣는 기능은 이미 재미를 주던 요소였죠.
여기에 'Live Stickers' 같은 기능을 붙여서, 단순히 잘라내는 것을 넘어 '꾸미는' 영역까지 확장한 겁니다.
사진 속 애완동물이나 식물 같은 피사체를 떼어내서 스티커로 만들고, 심지어 비디오의 특정 순간을 멈춰서 그 정보까지 조회할 수 있게 만든다는 건, 결국 '사진'이라는 원본 데이터를 최대한 분해하고, 그 조각들을 애플의 다양한 서비스(메시지, 스티커, 검색) 안에서 재활용하겠다는 의도가 깔려 있습니다.
가장 흥미로운 건, 이 모든 것이 '검색'이라는 행위를 중심으로 돌아가고 있다는 점입니다.
과거에는 Spotlight 같은 기능으로 검색의 범위를 넓히는 데 초점을 맞췄다면, 이제는 검색의 '시작점' 자체를 아이폰 내부로 끌어당기는 데 집중하고 있습니다.
사용자가 외부의 거대한 정보의 바다로 나갈 필요성을 느끼지 못하게, 작은 기능들로 촘촘하게 그물망을 짜고 있는 모습이랄까요.
기술의 발전이 늘 '더 많은 기능'을 의미하는 건 아니라는 걸, 이 사소해 보이는 업데이트들을 통해 다시 한번 느끼게 됩니다.
<br>
결국 최신 기술의 화려한 기능들은 사용자의 불편함을 해소하기보다, 사용자의 시선과 검색 경로를 얼마나 매끄럽게 자신들의 생태계 안으로 붙잡아 두는가에 초점을 맞추고 있다.