AI 시대의 앱 개발은 어떻게 달라지고 있는가
전문가가 모두를 위해 만드는 시대에서, 누구나 만들어 자신에게 맞게 고쳐 쓰는 시대로
AI in Action 라이브 실험을 통해 다시 생각하게 된 Vibe Coding 시대의 개발 방식
지난 3월 22일, 저는 약 3시간 동안 YouTube 라이브 방송을 진행했습니다.
그리고 방송이 끝난 뒤,
그 긴 라이브 내용을 바탕으로 한 요약 영상 두 개를 제 채널에 업로드했습니다.
하나는 한국어 버전,
다른 하나는 영어 버전입니다.
먼저 결과물을 보시면
이 글에서 이야기하려는 workflow와 그 의미를 더 쉽게 이해하실 수 있을 것 같습니다.
한국어 요약 영상 보기
English Summary Video
이번 작업은
라이브 방송 내용을 실시간으로 캡처하고,
그 산출물을 바탕으로 방송 직후 요약 영상을 만들어 올리는 workflow를 실제로 적용한 두 번째 사례였습니다.
그리고 지난번에 이어
이번에도 이 workflow는 성공적으로 작동했습니다.
저는 바로 이 두 번의 반복된 성공을 통해
단순히 “기술이 가능하다”는 수준을 넘어서,
이 방식이 앞으로 어떤 변화를 만들어낼 수 있을지에 대한 인사이트를 얻게 되었습니다.
3월 22일 라이브에서는 이런 이야기들이 오갔습니다
이번 요약 영상이 흥미로운 이유는
단순한 기술 데모만 담고 있지 않기 때문입니다.
3월 22일 라이브 방송에서는
제가 그 주에 실제로 경험했던 여러 AI 실험과 현장 이야기들이 함께 다뤄졌습니다.
예를 들면 이런 내용들입니다.
Bellevue GitHub 사무실에서 열린 GitHub Copilot DevDays 참석 이야기
시애틀 한인 IT 커뮤니티 창발 세미나에서 다뤄진 AI와 PKM의 만남
시애틀 총영사관과 KSC가 함께한 K-Initiative 출범식
Gobi Space 공식 런칭
VibeLearn AI v2.0 과 Continuous Vibe Learning
여러 주제를 동시에 다루는 Multi-topic Learning 실험
그리고 생활 속 적용 사례인 잔디 관리 AI 실험
즉, 이번 요약 영상은
“AI가 요약 영상을 만들었다”는 기술 시연인 동시에,
제가 실제로 AI를 어떤 방식으로 일상, 학습, 콘텐츠 제작에 연결하고 있는지를 보여주는 기록이기도 합니다.
그래서 이 글을 읽으시는 분들께는
가능하면 먼저 요약 영상을 한 편이라도 보시기를 권하고 싶습니다.
짧은 영상 안에서
기술, 실험, 현장성, 그리고 앞으로의 방향이 함께 담겨 있기 때문입니다.
이번 실험에서 다시 확인한 것은 실시간 시각적 요약의 힘이었습니다
이번 workflow를 두 번째로 적용하면서
제가 다시 강하게 확인하게 된 것은
라이브 방송 중에도 실시간으로 시각적 요약이 만들어진다는 점이었습니다.
이 부분은 매우 인상적이었습니다.
제가 말을 하면
Gobi Desktop이 음성을 캡처하고,
그 내용을 바탕으로 AI4PKM의 흐름 안에서
Canvas 형태의 구조화가 함께 진행됩니다.
이 Canvas는
대화의 흐름을 구조적으로 보여 주고,
어떤 주제가 중심인지,
어떤 이야기들이 서로 연결되는지를
시각적으로 파악할 수 있게 해 줍니다.
라이브를 진행하는 입장에서도
이 실시간 시각화는 상당히 유용합니다.
그리고 이번 workflow를 통해
한 가지를 더 분명하게 느꼈습니다.
실시간 시각적 요약은 라이브 중 이해를 돕는 강력한 도구였고,
방송 직후 영상 제작은 transcript와 요약 문서가 있었기 때문에 가능했던 workflow였습니다.
즉,
라이브 중에는 구조를 눈으로 확인할 수 있었고,
라이브 직후에는 정리된 문서를 바탕으로
다음 콘텐츠 제작 단계로 자연스럽게 이어질 수 있었습니다.
예전 방식이라면 방송 직후 요약 영상을 만드는 일은 훨씬 무거운 작업이었을 것입니다
예전 방식이라면
먼저 긴 영상을 다시 훑고,
핵심 장면을 정리하고,
구성안을 만들고,
슬라이드를 만들고,
나레이션을 입히고,
영상을 편집해야 했습니다.
이 작업은
단순히 시간이 오래 걸리는 정도의 문제가 아닙니다.
방송이 끝난 직후에는
이미 사람의 집중력도 많이 소모된 상태이고,
방금 다룬 내용들을 다시 정리해서
새로운 형태의 콘텐츠로 만드는 일은 꽤 큰 에너지를 요구합니다.
그런데 이번에는
라이브와 동시에 full transcript가 쌓였고,
그 내용을 요약한 문서도 생성되었습니다.
그래서 방송이 끝난 뒤
그 문서들을 바탕으로
요약 영상 제작 단계로 바로 이어갈 수 있었습니다.
물론 그렇다고 해서
AI가 모든 것을 완벽하게 한 번에 끝내 준 것은 아닙니다.
저는 이 문서들을 기반으로
먼저 Slides용 파일을 만들었고,
그 다음 멘트 부분은
제 의도와 톤에 더 맞도록 직접 조금 수정했습니다.
이 부분도 저는 오히려 중요하다고 생각합니다.
AI가 100% 내 마음에 들도록
처음부터 끝까지 한 번에 결과를 내주는 경우는 아직 많지 않습니다.
하지만 그 대신,
사람이 처음부터 전부 다 만드는 것과
AI가 초안을 구조적으로 만들어 주고
사람이 마지막 결을 다듬는 것은
전혀 다른 작업 방식입니다.
후자의 방식은
훨씬 더 빠르고,
훨씬 더 적은 에너지로,
더 높은 품질의 결과물에 도달하게 해 줍니다.
이번에 한국어 버전과 영어 버전의 요약 영상이
방송 직후 올라갈 수 있었던 것도
바로 이 방식 덕분이었습니다.
저는 AI4PKM의 Skill을 그대로 쓰지 않고 제 필요에 맞게 바꾸어 쓰고 있습니다
여기서 한 가지 중요한 포인트가 있습니다.
저는 AI4PKM에서 제공하는 Skill들을 사용하고 있지만,
그것을 그대로 사용하고 있지는 않습니다.
제 workflow와 needs에 맞게 수정해서 사용하고 있습니다.
예를 들어
기존의 영상 제작 Skill은
생성되는 오디오, 이미지, 영상 파일 등이
하나의 폴더에서 같은 이름으로 생성되며
계속 덮어쓰는 구조였습니다.
하지만 저의 경우에는
한 번의 라이브 방송으로부터
한국어 버전 영상도 만들고
영어 버전 영상도 만들고
그 산출물들을 이후에도 계속 보관하고 싶었습니다
그래서 저는
AI4PKM에서 제공하는 Skill을
제 상황에 맞게 수정해서 사용하고 있습니다.
이것은 단순히 “코드를 고쳤다”는 이야기가 아닙니다.
오히려
이 과정 자체가
제가 이번 글에서 이야기하고 싶은 인사이트의 출발점입니다.
Vibe Coding 시대에는 범용성의 의미도 달라질 수 있다고 느꼈습니다
예전에는
코딩이 비교적 전문가의 영역이었습니다.
그래서 어떤 앱이나 도구를 만들 때는
처음부터 어느 정도의 범용성을 갖추는 것이 중요했습니다.
다양한 사용자가
다양한 환경에서
별다른 수정 없이 사용할 수 있어야 했고,
그 과정에서 많은 설계, 리서치, 협업이 필요했습니다.
그리고 사용자는
그렇게 완성된 도구를
주로 “사용하는 사람”의 위치에 있었습니다.
하지만 지금은
그 전제가 조금씩 달라지고 있다고 느낍니다.
AI 덕분에
누구나 어느 정도는
자기에게 필요한 기능을 직접 구현하거나 수정할 수 있는 방향으로 가고 있기 때문입니다.
그렇다면 앞으로는
모든 앱이 처음부터 높은 범용성을 갖추어야만
의미가 있는 것은 아닐 수도 있습니다.
누군가가 좋은 아이디어를 빠르게 구현해서 공개하면,
그 다음에는 각 사용자가
자기 환경과 자기 needs에 맞게
그 앱을 직접 확장하고 수정해서 쓸 수 있습니다.
즉,
생산자는 핵심 아이디어를 구현한 형태까지 만들고,
사용자는 그것을 자기 상황에 맞게 업그레이드해서 사용하는 흐름
이 점점 더 자연스러워질 수 있다는 것입니다.
이번에 제가 한 일도 그렇습니다.
예전 같으면
제가 추가한 기능을 정리해서 GitHub Repository에 PR을 올리고,
관리자의 리뷰를 거쳐
원본 코드에 반영하는 흐름을 먼저 떠올렸을 것입니다.
저도 처음에는 그렇게 생각했습니다.
그런데 곧 알게 되었습니다.
제가 이번에 추가한 기능은
모든 사람에게 필요한 범용 기능이라기보다
저에게 필요한 기능이었습니다.
저는 한국어와 영어 두 개의 영상을 한 번에 만들고 싶었고,
산출물도 계속 보관하고 싶었습니다.
그 기능을 원본 저장소에 반영하려면
다시 범용성을 고민해야 합니다.
다른 사람에게도 필요한가,
기존 구조와 어떻게 맞물리는가,
설정은 어떻게 일반화할 것인가,
예외 상황은 무엇인가를 모두 생각해야 합니다.
그 작업은 결코 가볍지 않습니다.
그리고 각자가 AI를 사용해서
비교적 쉽게 자기에게 필요한 기능을 추가할 수 있다면,
모든 것을 범용화하는 데
예전과 같은 시간과 노력을 들일 필요가 줄어들 수도 있습니다.
그래서 저는
Vibe Coding 시대에는
앱 개발 프로세스 자체가 달라질 수 있다고 생각하게 되었습니다.
물론 범용 소프트웨어는 앞으로도 계속 필요할 것입니다
이 이야기가
“이제 범용 소프트웨어는 필요 없다”는 뜻은 아닙니다.
Enterprise 급의 큰 소프트웨어,
안정성과 보안과 표준화가 중요한 영역,
여러 사람이 공통 규칙 안에서 사용해야 하는 시스템은
앞으로도 계속 중요할 것입니다.
그런 영역에서는
범용성과 관리 가능성이 여전히 핵심 가치입니다.
제가 말하고 싶은 것은
그와는 조금 다른 영역입니다.
즉,
개인 생산성,
개인 workflow,
작은 팀의 특수한 needs,
실험적인 제작 파이프라인,
빠르게 시도하고 빠르게 바꾸는 도구들의 영역에서는
처음부터 끝까지 범용성을 확보하는 데 드는 시간과 노력 없이도
충분히 유의미한 생산이 가능해지는 시대가 오고 있다는 점입니다.
그리고 AI의 발전은
그런 영역을 점점 더 넓히고 있다고 생각합니다.
그래서 저는 이 실험을 계속해 보려고 합니다
제가 1년 동안 진행했던
「재미로 하는 Vibe Coding」 시리즈는
많은 것을 남겼습니다.
그리고 지금의
AI in Action – AI를 일상에 적용해 보는 다양한 실험은
그 다음 단계라고 생각합니다.
이제는
AI를 배우는 것 자체를 넘어서,
AI를 어떻게 일상에 연결할 것인지
AI와 함께 어떤 workflow를 만들 수 있는지
그 과정에서 일하는 방식은 어떻게 달라지는지
그리고 그 변화 속에서 사용자는 어떤 역할을 하게 되는지
를 더 구체적으로 실험해 보고 싶습니다.
이번 3월 22일 라이브와
그 직후 만들어진 한국어/영어 요약 영상은
그 변화가 이미 시작되고 있다는 것을
저에게 꽤 분명하게 보여준 사례였습니다.
그리고 무엇보다도,
이것이 한 번의 우연한 성공이 아니라
두 번 연속으로 성공한 workflow라는 점에서
저는 더 큰 의미를 느꼈습니다.
이 글을 읽으시는 분들께도
그 결과를 직접 보시길 권합니다.
짧은 요약 영상부터 보셔도 좋고,
시간이 되시면 원본 라이브 방송도 함께 보셔도 좋습니다.
저는 앞으로도
매주 작은 실험을 계속하면서,
그 과정에서 얻는 Insight를 이곳 Substack에 꾸준히 남겨 보려고 합니다.
참고로 라이브 영상 원본 입니다.


