Recent Posts
Recent Comments
반응형
«   2026/03   »
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
Archives
Today
Total
관리 메뉴

오늘도 공부

Android AppFunctions: AI 에이전트가 앱을 직접 호출하는 새로운 인터페이스 본문

AI

Android AppFunctions: AI 에이전트가 앱을 직접 호출하는 새로운 인터페이스

행복한 수지아빠 2026. 3. 11. 17:57
반응형

Google이 Android를 AI 에이전트 중심 OS로 발전시키기 위한 새로운 접근을 발표했습니다. 핵심은 AppFunctions라는 기능으로, 앱의 특정 기능을 AI 에이전트가 직접 호출할 수 있도록 표준화하는 프레임워크입니다. (Android Developers Blog)

이 개념은 최근 AI 생태계에서 많이 언급되는 MCP(Model Context Protocol)와 매우 유사합니다. 다만 MCP가 서버 기반 도구 연결을 표준화한다면, AppFunctions는 모바일 앱 내부 기능을 AI에게 노출하는 방식이라고 볼 수 있습니다. (Android Developers)

이 글에서는 Google이 발표한 Android의 “Intelligent OS” 전략과 AppFunctions가 무엇인지, 그리고 개발자 입장에서 어떤 의미를 가지는지 자세히 살펴보겠습니다.

 

 

The Intelligent OS: Making AI agents more helpful for Android apps

News and insights on the Android platform, developer tools, and events.

android-developers.googleblog.com

 


프로젝트 소개

Google은 Android를 단순한 앱 중심 OS(App-centric OS)에서 AI 에이전트 중심 OS(Agent-centric OS)로 발전시키려는 전략을 공개했습니다.

핵심 아이디어는 다음과 같습니다.

앱을 사람이 직접 실행하는 대신,
AI 에이전트가 앱의 기능을 직접 호출한다

이를 위해 Google은 다음 두 가지를 발표했습니다.

  1. AppFunctions
  2. AI Agent UI Automation Framework

특히 AppFunctions는 Android 앱이 자신의 기능을 AI가 이해할 수 있는 "도구(tool)" 형태로 공개할 수 있게 합니다. (Android Developers Blog)

즉 개발자는 앱 기능을 API처럼 정의하고,
AI 에이전트(Gemini 등)는 자연어 요청을 해석하여 해당 기능을 직접 실행할 수 있습니다.


왜 이 프로젝트가 등장했을까

1. 앱 중심 인터페이스의 한계

지금까지 스마트폰 UX는 다음과 같은 구조였습니다.

User
  ↓
앱 실행
  ↓
UI 탐색
  ↓
기능 수행

예를 들어

  • 음식 주문
  • 메시지 전송
  • 일정 등록

이 모든 작업은 앱 UI를 직접 열고 탐색해야 했습니다.

하지만 AI 에이전트 시대에는 이런 방식이 비효율적입니다.


2. 기존 AI Agent 접근 방식의 문제

AI가 앱을 조작하는 기존 방법은 크게 두 가지였습니다.

1) 화면 이해(Screen Understanding)

AI가 화면을 읽고 버튼을 클릭하는 방식

대표 예

  • Rabbit LAM
  • 일부 자동화 에이전트

문제점

  • 느림
  • 깨지기 쉬움
  • 보안 문제

2) 앱 내부 API

앱 개발자가 직접 API 제공

문제점

  • 표준이 없음
  • 앱마다 구현 방식이 다름

3. 그래서 등장한 것: AppFunctions

Google은 다음과 같은 개념을 제시합니다.

앱 기능을 "AI가 호출할 수 있는 함수"로 공개하자

이 개념은 사실상

  • OpenAI function calling
  • MCP tool
  • LangChain tools

과 같은 구조입니다.

하지만 모바일 OS 레벨에서 표준화했다는 점이 중요합니다.


핵심 기능

1. AppFunctions (앱 기능을 AI에게 공개)

AppFunctions는 앱 기능을 Self-describing function으로 정의합니다. (Android Developers Blog)

즉 앱은 다음과 같은 기능을 선언합니다.

예:

  • 메시지 보내기
  • 음식 주문
  • 택시 호출
  • 음악 재생

AI 에이전트는 이를 도구(tool)처럼 사용할 수 있습니다.


예시

음악 앱이 다음과 같은 기능을 제공한다고 가정해봅시다.

@AppFunction
fun playSong(
    songName: String,
    artist: String?
)

사용자가 말합니다.

"아이유 노래 틀어줘"

AI 에이전트는

playSong(songName="아이유")

함수를 호출합니다.


2. 자연어 → 앱 기능 실행

이제 작업 흐름은 이렇게 됩니다.

User: "피자 주문해줘"

AI Agent
  ↓
intent 분석
  ↓
pizzaApp.orderPizza()

앱 UI를 거치지 않습니다.


3. MCP와 매우 유사한 구조

AppFunctions는 사실상 모바일용 MCP입니다.

개념역할

MCP 서버 도구 호출
AppFunctions 앱 기능 호출

즉 구조적으로 보면

LLM
  ↓
Tool Calling
  ↓
App Function

4. AI Agent UI Automation (Fallback)

모든 앱이 AppFunctions를 지원하는 것은 아닙니다.

그래서 Google은 UI automation framework도 제공합니다. (9to5Google)

이 방식은

  • 화면을 이해하고
  • UI를 조작

하는 방식입니다.

즉 전략은 다음과 같습니다.

1️⃣ AppFunctions (최적)
2️⃣ UI automation (fallback)


프로젝트 구조

Android AI Agent 구조는 다음과 같은 형태로 이해할 수 있습니다.

핵심은

AI Agent가 OS 레벨 오케스트레이터 역할을 한다는 점입니다.


AppFunctions 구현 예시

간단한 예를 살펴보겠습니다.

예: 메모 앱

1️⃣ AppFunction 정의

@AppFunction
fun createNote(
    title: String,
    content: String
): NoteResult {
    return noteRepository.create(title, content)
}

2️⃣ AI Agent가 호출

사용자 입력

"회의 내용 메모해줘"

AI Agent 내부

{
  "function": "createNote",
  "arguments": {
    "title": "회의",
    "content": "프로젝트 일정 논의"
  }
}

3️⃣ 앱 실행

createNote()

결과

Note created

실제 사용 시나리오

AppFunctions가 보편화되면 다음과 같은 경험이 가능해집니다.


시나리오 1

사용자

"엄마에게 오늘 늦는다고 문자 보내줘"

AI

messages.sendMessage(
  contact="엄마",
  text="오늘 늦어요"
)

시나리오 2

사용자

"내일 아침 7시에 알람 맞추고 카페 예약해줘"

AI Agent

AlarmApp.setAlarm()
ReservationApp.bookCafe()

시나리오 3

사용자

"출장 일정 정리해줘"

AI Agent

Calendar.createEvent()
FlightApp.searchFlights()
HotelApp.bookRoom()

개발자에게 중요한 포인트

이 변화는 단순한 API 추가가 아닙니다.

앱의 UX 패러다임 자체가 바뀔 가능성이 있습니다.


1. UI 중심 → 기능 중심

기존

앱 → 화면 → 기능

미래

기능 → AI → 사용자

2. 앱이 "서비스 API"가 된다

앞으로 앱은 다음과 같이 변할 가능성이 큽니다.

Mobile App = Local Service API

  • REST API (웹)
  • MCP Tools (AI)
  • AppFunctions (모바일)

3. SEO처럼 "AI Discoverability"가 중요해질 가능성

앱은 이제

  • AI가 발견 가능해야 하고
  • 기능이 명확하게 정의되어야 합니다.

개인적인 관점: 이게 진짜 중요한 이유

이 발표의 핵심은 사실 AppFunctions 자체가 아닙니다.

진짜 메시지는 이것입니다.

스마트폰 인터페이스가 "앱"에서 "AI 에이전트"로 이동한다

과거 UI 진화

CLI
↓
GUI
↓
Mobile App
↓
AI Agent

만약 이 생태계가 성공한다면

미래에는 이렇게 될 가능성이 큽니다.

"앱을 실행하는 시대 → 기능을 호출하는 시대"

즉 사용자는 이렇게 말할 것입니다.

"출장 준비해줘"

그리고 AI는

  • 비행기
  • 호텔
  • 일정
  • 메시지

모든 앱 기능을 자동으로 오케스트레이션합니다.


마무리

Google이 발표한 AppFunctions는 단순한 Android API가 아니라
AI Agent 시대의 모바일 인터페이스 표준이 될 가능성이 있습니다.

핵심 정리

  • 앱 기능을 AI가 호출 가능한 함수로 공개
  • MCP와 유사한 구조
  • UI 대신 Intent 기반 인터페이스
  • Android를 Agent-first OS로 진화

만약 이 생태계가 확장된다면

"앱을 열 필요 없는 스마트폰"

이 실제로 등장할 가능성이 있습니다.

반응형