한 달 만에 조회수 1,000만 회를 찍게 해준 Claude Code 자동화 기술

CChase AI
컴퓨터/소프트웨어마케팅/광고창업/스타트업AI/미래기술

Transcript

00:00:00지난달 저는 유튜브에서 38,000명 이상의 팔로워를 얻었습니다.
00:00:03인스타그램 팔로워 50,000명, 틱톡 팔로워는 11,000명이 늘었습니다.
00:00:08이는 제 '클로드 코드(Claude code)' 콘텐츠 시스템 덕분이 큰데요.
00:00:12오늘은 제가 구축한 커스텀 스킬과 일일 업무 흐름을 하나하나 분석해서,
00:00:16클로드 코드로 전체 콘텐츠 시스템을 어떻게 자동화했는지 보여드리겠습니다.
00:00:20여러분도 하실 수 있도록 말이죠.
00:00:22여기 보시는 것은 제 콘텐츠 시스템의 중추 역할을 하는 7가지 클로드 코드 스킬입니다.
00:00:26이 스킬들이 지난 한 달 동안 1,000만 회의 조회수를 기록했습니다.
00:00:30편집자나 가상 비서 없이 오직 1인 팀으로 이뤄낸 결과죠.
00:00:33그 1,000만 조회수는 30일 동안 제작된
00:00:3890개의 콘텐츠에서 발생했는데, 그중 30개는 롱폼 영상입니다.
00:00:43하지만 분명 엄청난 양의 작업물임은 틀림없습니다.
00:00:47숏폼이었습니다. 쇼츠, 릴스, 틱톡 같은 것들이죠.
00:00:51그리고 여러분이 정말 주목해야 할 숫자는 팔로워 수가 아닙니다.
00:00:54서두에서 언급한 1,000만 조회수도 아니에요. 바로 90개의 영상입니다.
00:00:58혼자서 하루에 영상 90개를 처리한다는 건, 제 자랑 같지만
00:01:02정말 엄청난 작업량입니다.
00:01:05제가 이 일을 해낼 수 있었던 유일한 방법은 지속 가능하고
00:01:10반복 가능한 시스템 덕분이었고, 오늘 바로 그 시스템을 살펴볼 것입니다.
00:01:14다시 말씀드리지만, 저는 이 모든 걸 혼자 하고 있습니다.
00:01:15하지만 컴퓨터 앞에 하루 12시간, 16시간씩 매여 있지는 않아요.
00:01:19이 시스템이 지속 가능하고 합리적이어야만
00:01:22유지할 수 있기 때문입니다. 게다가,
00:01:251,000만 조회수를 달성하는 동안,
00:01:27조회수 40만 회를 넘긴 단일 콘텐츠는 하나도 없었습니다.
00:01:31즉, 1,000만이라는 숫자가 한두 개의 영상이 대박 터지고
00:01:35나머지는 묻힌 그런 상황이 아니라는 뜻입니다.
00:01:37결정타 한 방 없이 90번의 잽으로 승리한 셈이죠.
00:01:40이 점을 아시는 게 중요할 것 같습니다.
00:01:42우리는 단순히 운에 맡긴 무작위적인 바이럴을 노리는 게 아닙니다.
00:01:45누구나 반복할 수 있는 작고 꾸준한 승리를 노리는 것이죠.
00:01:48그렇다면 어떻게 이런 일이 가능했을까요?
00:01:50어떻게 클로드 코드를 사용해 사람들이 소비하고 싶어 하는
00:01:54콘텐츠를 만드는 지속 가능한 시스템을 구축했을까요?
00:01:56먼저 콘텐츠 제작 프로세스 전반을 이해해야 합니다.
00:01:59그다음 프로세스를 개별 부분으로 나누고, 각 부분에
00:02:04특정 클로드 코드 자동화와 스킬을 할당해야 합니다.
00:02:08그게 바로 체계적으로 문제를 해결하는 방법입니다.
00:02:10저는 콘텐츠 제작 프로세스를 네 가지 단계로 나눕니다.
00:02:13첫 번째는 조사, 두 번째는 아이디어 구상,
00:02:17세 번째는 스크립트 작성, 네 번째는 배포입니다.
00:02:22이 네 단계에서 다양한 클로드 코드 스킬을 끌어냅니다.
00:02:27어떤 단계는 진행되는 일이 많아서 여러 개의 스킬이 필요하기도 합니다.
00:02:31스크립트 작성을 예로 들면, 여기엔 후킹 문구 작성이 포함되고
00:02:34실제 스크립트 내용도 들어갑니다.
00:02:36영상 개요뿐만 아니라 제목이나 썸네일 같은 패키징 작업도 포함되죠.
00:02:40하지만 조사와 아이디어 구상이라는 처음 두 단계부터 시작하겠습니다.
00:02:44이 둘은 서로 맞물려 돌아가는 사이클이라 병행해서 이야기하는 게 중요합니다.
00:02:47자료를 조사하고, 거기서 아이디어를 얻고,
00:02:50그 아이디어를 바탕으로 추가 조사가 필요해지니까요.
00:02:52그리고 그 조사 결과에서 또 다른 아이디어가 나오기도 하죠.
00:02:56그래서 1단계와 2단계는 매우 밀접하게 연결되어 있습니다.
00:02:59이곳은 여러분이 AI 개발자 지망생에서 숙련된 AI 개발자로 거듭날 수 있는
00:03:03최고의 장소입니다. 매주 새로운 내용이 업데이트되죠. 그래서 만약 여러분이
00:03:08어떻게 하면 클라우드 코드를 마스터하고 실제적인 발전 경로를 가질 수 있을지
00:03:10고민 중이시라면, 꼭 확인해 보세요. 다시 댓글에 링크를 남겨두겠습니다. 이제
00:03:14유튜브 파이프라인 기술로 돌아가 보죠.
00:03:19저는 이 기술이 7가지 기술 중 가장 강력하다고 생각합니다. 음,
00:03:22이 notebook LM 파이 기술을 통해 notebook LM의 강력한 기능을
00:03:25클라우드 코드에 가져올 수 있습니다. 유튜브 URL이나 PDF, 문서 등
00:03:29제가 원하는 무엇이든 notebook LM에 제공할 수 있죠.
00:03:32일반적인 notebook LM 웹 앱에서 할 수 있는 모든 작업을
00:03:34터미널을 통해 수행할 수 있다는 뜻입니다.
00:03:36notebook LM은 클라우드 코드에서 다루기 까다로운
00:03:41특정 콘텐츠들을 처리하는 데 매우 능숙하기 때문에 정말 유용합니다.
00:03:44특히 유튜브 비디오 같은 것들인데, 이 모든 작업은 구글 서버에서 처리됩니다.
00:03:48분석을 위해 클라우드 코드의 토큰을 사용하는 것이 아니라,
00:03:51notebook LM과 Gemini가 대신 처리하게 하고 결과만 가져오는 방식이죠.
00:03:53그리고 비디오, 슬라이드 데크, 이미지 등 notebook LM의 모든 결과물에
00:03:56접근할 수 있습니다. 여기에서 할 수 있는 모든 걸 터미널에서 할 수 있게 된 거죠.
00:03:59이 기술은 notebook LM PI CLI 도구를 사용하여
00:04:03클라우드 코드와 notebook LM 사이의 가교 역할을 수행합니다.
00:04:05이 레포지토리에는 자체적인 기술이 포함되어 있습니다.
00:04:09유튜브 파이프라인 리서치는 본질적으로 추가적인 기술들을 호출하는
00:04:12상위 계층의 기술이라고 할 수 있습니다.
00:04:17그래서 유튜브 파이프라인 기술이 하는 일은 notebook LM
00:04:21PI CLI 도구와 기술을 활용하여 기본적으로
00:04:24정보 수집 과정을 자동화하는 것입니다.
00:04:27대화 내용을 바탕으로 여러 유튜브 URL을 수집하고
00:04:32분석 단계까지 포함합니다.
00:04:33이 도구를 가교로 활용해 단 한 번의 명령으로
00:04:38정보 수집과 분석을 자동으로 동시에 수행하는 것이죠.
00:04:43하지만 이 기술을 사용한다는 건 이미 정보원이 있다는 것을 전제로 합니다.
00:04:44무엇에 대해 이야기하고 무엇을 할지 이미 결정했다는 뜻이죠.
00:04:49분석 단계까지 포함합니다.
00:04:50즉, 이 도구를 가교로 삼아 명령 하나만으로 자료를 자동으로
00:04:54수집하고 분석까지 마치는 것이죠.
00:04:56하지만 이 스킬을 쓴다는 건 이미 정보원이 있다는 뜻이겠죠?
00:04:59무엇에 대해 이야기할지, 혹은 무엇을 분석할지 이미 결정했다는 뜻인데,
00:05:02여기서 질문이 생깁니다.
00:05:04애초에 무엇을 말할지 어떻게 결정할까요?
00:05:08클로드 코드가 그 부분에서 어떻게 도움을 줄까요?
00:05:09그건 스킬 분석 내용 그 이상의 영역입니다.
00:05:13우리가 파악해야 할 것은 일종의 '0단계'입니다.
00:05:16여러분의 특정 분야에서 지식의 원천이 어디인지 알아내야 합니다.
00:05:21기술 분야라면 꽤 명확하죠. 이런 AI 관련 주제들은
00:05:23보통 몇 군데에서 시작됩니다.
00:05:25따라서 여러분의 지식의 원천이 어디인지 파악해야 합니다. 왜냐하면
00:05:30기술이나 AI 분야가 아니라면, 여러분은 다음과 같은 점을 이해해야 합니다.
00:05:33정보가 어디에서 시작되는가 하는 것이죠.
00:05:35그래야 해당 주제에 대해 가장 먼저 이야기할 수 있기 때문입니다. 제 경우에는,
00:05:39정보가 GitHub나 트위터에서 나온다고 말씀드렸는데,
00:05:40그 과정에서 클로드 코드를 어떻게 활용할까요? 트위터의 경우,
00:05:45클로드 코드를 사용해 트위터 스크래핑 웹 앱을 만들었습니다.
00:05:47지금 보시는 것이 그것입니다. 텔레그램으로 전송되죠. 매 30분에서 45분마다,
00:05:49설정한 키워드와 작성자들을 바탕으로 추출된 트윗이
00:05:53알림으로 뜨면서 사람들이 무엇에 대해 이야기하는지, 좋아요는 얼마나 받았는지 알려줍니다.
00:05:57클로드 코드를 어떻게 활용할까요? 트위터의 경우,
00:06:00클로드 코드에게 트위터 스크래핑 웹 앱을 만들어 달라고 했습니다.
00:06:04지금 보시는 게 그 결과물입니다. 텔레그램과 연동되어 30~45분마다
00:06:08특정 키워드와 작성자를 기반으로 트윗 알림이 옵니다.
00:06:12그들이 무엇을 말하는지, 좋아요 수는 어떤지 알려주죠.
00:06:16확산 속도 점수(velocity score)도 보여줍니다.
00:06:18또한 트위터 API도 연결해두어서 원한다면 바로 답장을 보낼 수도 있습니다.
00:06:21이게 웹 앱의 작동 방식입니다. 다시 말씀드리지만,
00:06:25클로드 코드로 만들기는 꽤 쉬웠지만, 기능은 상당히
00:06:28정교하고 커스터마이징도 자유롭습니다.
00:06:3145분 정도마다 랜덤 타이머가 작동해서
00:06:3640~90개의 트윗을 수집합니다. 아피파이(Apify) 트윗 스크래퍼를 쓰는데,
00:06:39가격이 꽤 저렴합니다.
00:06:40그러고 나서 트윗을 필터링하고 점수를 매깁니다.
00:06:43여러 점수 지표를 기준으로 삼는데, 확산 속도, 권위,
00:06:48타이밍, 기회 요소, 그리고 답장 가능성을 확인합니다.
00:06:52말씀드린 대로 답장을 보낼 수 있는 기능이 있기 때문이죠.
00:06:54수집된 모든 트윗은 수퍼베이스(Supabase)로 전송됩니다.
00:06:57항상 같은 사람의 트윗만 받지 않도록 확인하고
00:07:00정보를 다양화하기 위해서입니다.
00:07:03거기서 점수를 매기고 그 점수에 따라 트윗을 선택하는데, 소프트맥스를 사용합니다.
00:07:07각 트윗에 확률 점수를 부여하는 것이죠.
00:07:08그래서 매번 1등 점수의 트윗만 가져오지는 않습니다.
00:07:11어느 정도 무작위성이 필요하니까요.
00:07:13그다음 텔레그램으로 전송되고, 예상 답장 문구도
00:07:16제시해 줍니다. 여기에 브록(Brock)을 연동해 두었습니다.
00:07:18트위터를 조금이라도 해보셨다면 아시겠지만,
00:07:21지금 트위터는 AI 봇 게시물들로 몸살을 앓고 있습니다.
00:07:24그래서 모든 답장 내용은 수퍼베이스로 가서
00:07:29점수가 매겨집니다. 이를 통해 제가 보내는 답변의 질을 파악할 수 있죠.
00:07:34직접 답변을 작성할 수도 있고, 시간이 지나면서
00:07:36시스템 자체가 스스로 개선됩니다. 그리고 마지막으로
00:07:40텔레그램에 나타나죠. 이제 두 번째 지식 원천인
00:07:43Claude code가 그 모든 걸 해줬습니다.
00:07:47매일 아침 실행되어 AI 분야의
00:07:50GitHub 트렌딩 저장소를 가져와 제 Obsidian 보관함에 넣어주는 스크립트를 만들었죠.
00:07:53덕분에 지난 7일 동안 생성된 상위 10개의 트렌딩 저장소를 볼 수 있습니다.
00:07:57매일 별점 수와 사용 언어를 확인하고,
00:07:59링크와 함께 짧은 설명도 바로 볼 수 있죠.
00:08:00또한 그 달의 상위 5개 트렌드도 확인할 수 있고, 시스템이
00:08:04매일 어떤 것을 추천하는지, 그리고 왜 추천하는지도 알려줍니다.
00:08:08Claude code가 만든 이 GitHub 스크립트와 Twitter 엔진 덕분에,
00:08:12저는 이 '0단계 문제'를 해결할 수 있었습니다.
00:08:16그건 바로, 지난 한 주 동안 유튜브에서 반복되던 내용이 아닌,
00:08:19이야기할 만한 새로운 소재를 어떻게 찾느냐는 것이죠.
00:08:22우리에게는 새로운 것이 필요하고, 이 방식은 그것을 가능하게 합니다. 다시 말씀드리지만,
00:08:24Claude code를 쓴다고 해서 꼭 GitHub를 사용할 필요는 없습니다.
00:08:28Twitter를 사용할 필요도 없죠.
00:08:31그저 여러분의 분야에서 무엇이 중요한지 파악하기만 하면 됩니다.
00:08:34그러고 나서 Claude code로 그것들을 구축하세요. 일단 그 기반인
00:08:370단계의 '원천'을 확보하고 나면, 여기에
00:08:41이 모든 기술 분석 설정에 연결할 수 있습니다.
00:08:44GitHub에서 찾은 아이디어나 Twitter에서 누군가 이야기하는 것을 발견하면,
00:08:45거기에 'YouTube 파이프라인 검색'을 돌리는 거죠.
00:08:48이름은 'YT 파이프라인'이지만 꼭 유튜브일 필요는 없습니다.
00:08:52무엇이든 될 수 있죠. 그러면 NotebookLM에서 분석을 수행합니다.
00:08:57GitHub의 경우와 마찬가지로,
00:08:59이 모든 작업은 제 Obsidian 보관함 내부에서 이루어집니다.
00:09:03네, 터미널을 띄워놓고 Claude code와 대화하겠지만,
00:09:07Claude code가 생성하는 모든 것은 제 보관함 안의 마크다운 파일로 저장됩니다.
00:09:09그래서 무슨 일이 일어나고 있는지 확인하기가 매우 쉽습니다.
00:09:13보고서를 검토하고 연결된 문서들을 확인하는 것도 간편하죠.
00:09:14이 모든 작업은 제 옵시디언 보관함 내에서 이루어집니다.
00:09:20물론 터미널을 띄워놓고 클로드 코드와 대화하겠지만,
00:09:22클로드 코드가 생성하는 모든 것은 보관함 안의 마크다운 파일로 저장됩니다.
00:09:27그래서 무슨 일이 일어나고 있는지 확인하기가 매우 쉽죠.
00:09:30보고서를 검토하고 연결된 문서들을 살펴보기도 좋습니다.
00:09:33통찰력을 더해주고 모든 것을 체계적으로 유지해 줍니다.
00:09:36특히 콘텐츠 제작을 업으로 삼는다면,
00:09:38매일 여러 종류의 조사를 수행해야 하는데,
00:09:42이게 그냥 코드 베이스 안에만 있고 옵시디언 같은 도구가 없다면,
00:09:44클로드 코드는 괜찮겠지만 사람은 감당하기 힘들 겁니다.
00:09:48이제 기초 단계에서 아이디어를 찾는 법을 이해했습니다.
00:09:52그리고 유튜브 파이프라인 스킬에 대해서도 방금 이야기했죠.
00:09:55찾아낸 아이디어를 이 스킬로 연결해서
00:09:59노트북LM으로 보내 방대한 조사와 분석을 수행하는 법 말이죠.
00:10:03다음은 일종의 아이디어 구상과 전략 단계입니다.
00:10:06조사 내용을 바탕으로 '욕구 매핑(desire mapping)'을 통해
00:10:10아이디어를 어떻게 배치할지 결정하는 단계입니다.
00:10:12어떻게 하면 이 아이디어들을 사람들이 수준 높게
00:10:16진심으로 관심을 가질 만한 콘텐츠로 바꿀 수 있을까 하는 것이죠.
00:10:18이 구상 단계에서는 조사를 다시 하는 게 아니라,
00:10:22경쟁 환경의 관점에서 조사 내용을 살펴봅니다.
00:10:25다른 사람들은 이에 대해 뭐라고 하는가? 빈틈은 어디인가?
00:10:29아무도 이야기하지 않았지만 청중의 공감을 얻을 만한 요소는
00:10:33무엇인가 등을 파악하는 것이죠.
00:10:33조사 내용을 진공 상태에서 꺼내 여러분이 속한
00:10:38경쟁 환경에 배치하는 과정입니다. 실제 작동 모습을 보시죠.
00:10:42최근 RAG와 클로드 코드에 대해 조사해 왔고 콘텐츠로 만들 계획입니다.
00:10:45'클로드 코드와 RAG의 7단계' 같은 주제가 될 텐데,
00:10:49지난 1년 동안 정말 많이 변해온 분야이기 때문입니다.
00:10:52여기서 아이디어 구상 스킬을 실행합니다.
00:10:56최근 수행한 RAG와 클로드 코드 조사를 검토하고 시장 현황을 가져오게 합니다.
00:11:00그래서 Claude Code가 가져온 결과는 이렇습니다. 다시 말씀드리지만,
00:11:03우리가 이미 진행한 연구 데이터를 활용하고 있죠.
00:11:05가장 먼저 경쟁 구도, 이미 포화된 관점,
00:11:10열려 있는 틈새 시장, 그리고 성과가 두드러진 사례들을 보여줍니다.
00:11:14다른 사람들이 다뤘던 내용 중 소위 대박이 난 게 무엇인지 알려준 뒤,
00:11:17그 맥락을 바탕으로 비디오 아이디어, 즉 제목과 관점,
00:11:21우리가 공략하려는 니즈, 그리고 포맷과 경쟁적 공백을 제시합니다.
00:11:25이 과정을 수많은 다양한 영상들에 대해 수행하죠.
00:11:29총 9가지의 선택지를 주었고, 그 순위까지 매겨주었습니다.
00:11:32여기서 보는 것이 중요한 이유는 시스템의 모든 기술에서 반복되기 때문입니다.
00:11:36제가 Claude Code와 자동화에 대해 이야기할 때,
00:11:38우리가 정말로 하고자 하는 것은
00:11:40Claude Code를 협력자로 만드는 것입니다.
00:11:44그렇죠? 이 여정의 모든 단계에서
00:11:46저는 저의 입력값이 들어가기를 원합니다.
00:11:49Claude Code가 자동으로 GitHub에 가서 제가 보지도 못하는 사이에
00:11:53작업을 끝내고, 마지막에 가서야 "자,
00:11:55오늘 당신이 말할 전체 대본입니다. 그건 그렇고,
00:11:57썸네일이랑 제목도 다 만들어서 준비해 뒀어요.
00:12:00당신은 이 말들만 읽으면 됩니다"라고 하는 건 원치 않습니다.
00:12:01그 결과물은 끔찍할 것이기 때문입니다. 아시겠죠?
00:12:04창의성이 필요한 일을 AI와 함께 한다면,
00:12:08여러분이 직접 운전대를 잡고 있어야 합니다.
00:12:13물론 이 모든 과정에서 Claude Code가 많은 일을 해주긴 하지만,
00:12:16그건 분석을 하고 잠재적인 계획과 아이디어를 제안하는 일입니다.
00:12:20여러분은 여전히 그 과정에 참여해서 확인하며 "이건 별로야,
00:12:24저건 마음에 안 들어"라고 말할 수 있어야 합니다.
00:12:25그래야만 결국 좋은 결과물을 얻을 수 있습니다.
00:12:29또한 여러분만의 목소리를 유지하는 방법이기도 합니다. 아무리 교육을 잘 시켜도,
00:12:32처음부터 끝까지 중간 점검 없이
00:12:32완성된 대본이 나오기를 기대한다면,
00:12:37"이 아이디어로 가자, 저건 바꾸자"라고 개입할 지점이 없기에
00:12:39결과물은 평범하고 형편없어질 것입니다.
00:12:42하지만 이 방식의 장점은, 원한다면 그렇게 자동화할 수도 있다는 것이죠.
00:12:45다만 이 여정의 모든 단계에서,
00:12:48다음 단계로 넘어가기 전 Claude Code의 결과물을 확인하는 것이 전제됩니다.
00:12:51그리고 이 과정이 실제로 여러분에게 제공하는 가치는,
00:12:53바닥에서부터 분석을 시작해야 하는
00:12:58모든 고된 기초 작업을 대신 해준다는 것입니다.
00:13:03제시된 아이디어를 보면서 자신의 생각을 정교하게 다듬을 수 있죠.
00:13:06왜냐하면 열 번 중 아홉 번은,
00:13:09결국 AI가 준 결과물을 변형해서 사용하게 되기 때문입니다.
00:13:11완전히 똑같이 사용하는 경우는 거의 없습니다.
00:13:12항상 우리만의 무언가를 집어넣고 싶어 하니까요.
00:13:15자, 이것으로 아이디어 구상 단계는 끝났습니다. 0단계인
00:13:18지식 찾기를 마쳤고, 1단계에서
00:13:21파이프라인 연구와 NotebookLM 활용을 거쳐 아이디어 구상을 완료했습니다.
00:13:25이제 우리는,
00:13:26다른 사람들이 무엇을 하고 있는지라는 맥락 속에서
00:13:31이 잠재적인 콘텐츠 아이디어가 어디에 위치하는지 이해하게 되었습니다.
00:13:34물론 이 모든 작업은 우리 보관함인 Obsidian 내부에서 이루어집니다.
00:13:36혹시 Obsidian 관련 내용이 생소하시다면,
00:13:39제가 이전에 Obsidian과 NotebookLM을 심층 분석한
00:13:43영상 링크를 위에 걸어두겠습니다. 이제 3단계인 스크립트 작성 섹션으로 넘어갑니다.
00:13:47스크립트 작성에 대해 말씀드리자면, 제 경우엔,
00:13:50대본을 통째로 쓰는 스타일은 아닙니다.
00:13:52초반 30초 정도의 '훅' 부분만 대본을 씁니다.
00:13:57이 영상 도입부에서 제가 "팔로워 38,000명,
00:13:59틱톡 팔로워 11,000명"이라고 말한 부분은 대본이었습니다.
00:14:04이 '훅' 기술을 사용해 Claude Code와 여러 번 의견을 주고받으며
00:14:07정확히 어떤 말을 할지 결정했습니다.
00:14:09콘텐츠와 소셜 미디어의 세계에서,
00:14:12'훅'과 패키징은 매우 중요하기 때문입니다.
00:14:14그래서 20초 남짓한 그 부분을 완벽히 하고 싶었고, 나머지는
00:14:17불렛 포인트로 정리된 개요와 개념들 위주로 진행합니다.
00:14:19무슨 말을 할지 대략은 알지만, 완전히 정해진 건 아니죠.
00:14:20그냥 라이브로 진행하는 겁니다.
00:14:21그래서 제가 여러분께 드리는 개요 기술 또한,
00:14:26큰 그림을 그리는 식입니다. 비록 '훅' 부분은 아주 상세하게 잡아주지만요.
00:14:30그리고 이 '훅' 관련 내용은 상당 부분 Callaway에게서 영감을 받았습니다.
00:14:34그의 아이디어를 많이 참고했죠. 그의 모든 콘텐츠에 감사를 전합니다.
00:14:37정말 훌륭한 내용들이거든요.
00:14:38저는 기본적으로 Callaway의 수많은 영상들을 분석해서 이 시스템을 구축했고,
00:14:43그것을 Claude Code가 훅, 개요, 제목 등을 구성하는 방식에 통합했습니다.
00:14:47실제로 어떻게 작동하는지 살펴봅시다.
00:14:50이번에는 훅 기술과,
00:14:51개요 기술, 그리고 YouTube 제목 기술을 Claude Code RAG 영상 후보에 적용해
00:14:55어떤 결과가 나오는지 보겠습니다. 저는 AI에게
00:14:57"너의 추천안을 사용하자"라고 말했습니다.
00:14:58그 추천안은 컨텍스트 엔지니어링적인 관점이었고,
00:15:03그래서 롱폼 후크에는 적용하지 않을 것이고, 그다음으로
00:15:05자, 훅 섹션의 결과로 다섯 가지 변형안이 나왔습니다.
00:15:09각 훅은 다시 멘트용 훅, 시각적 훅,
00:15:12그리고 필요할 경우 추가할 텍스트 오버레이로 세분화됩니다.
00:15:15여기서 텍스트 오버레이는 주로 숏폼 콘텐츠를 위한 것입니다.
00:15:19그래서 롱폼용 훅에는 적용하지 않고 개요 단계로 넘어갔는데,
00:15:22여기엔 목표 영상 길이도 포함됩니다.
00:15:24참고할 만한 우리 Obsidian 보관함 내의 관련 문서들도
00:15:28제시해 주죠. 그리고 훅이 나옵니다. 다시 말씀드리지만 개요는 그냥 섹션 구분입니다.
00:15:32예를 들어 전체적인 개념, 즉 "핵심 아이디어인 컨텍스트 엔지니어링은 이것이다"와 같이
00:15:36컨텍스트 엔지니어링이 무엇인지 설명하는 내용과 이야기할 포인트들을 짚어줍니다.
00:15:39또한 잠재적인 시각 보조 자료도 포함되는데,
00:15:42"Excalidraw 다이어그램을 추가하고 싶다면 이렇게 하라"는 식입니다.
00:15:45화면상에서 언급하고 싶은 출처 자료들도
00:15:48함께 보여주죠. 그리고 이 과정이 매 섹션마다 반복됩니다.
00:15:51마지막으로 제목 옵션으로 넘어갑니다.
00:15:53제목 기술의 장점은 단순히 고립된 상태에서 생각하는 게 아니라는 겁니다.
00:15:56과거에 성과가 좋았던 모든 제목들을 분석해서
00:16:00이 채널에 실제로 무엇이 먹히는지 파악합니다.
00:16:02그런 다음 제목들을 등급별로 나눕니다. 1순위는
00:16:07"컨텍스트 엔지니어링이 방금 프롬프트 엔지니어링을 구식으로 만들었다"이며,
00:16:10그 근거도 알려줍니다.
00:16:11"조회수 몇 회를 기록한 이전 영상 X를 바탕으로 했다"라며
00:16:15이 제목이 왜 효과적일지 설명하죠. 2순위 제목들은
00:16:18계산된 위험을 감수하는 것들입니다. 약간 파격적인데,
00:16:21ABC 테스트를 해볼 수 있다는 점에서 유용합니다.
00:16:25비슷비슷한 1순위 제목 세 개만 쓰기보다는
00:16:28가끔은 이렇게 색다른 시도를 해볼 가치가 있으니까요.
00:16:31이어지는 썸네일 텍스트 옵션도 마찬가지 시스템입니다.
00:16:34이렇게 훅, 개요, 제목이라는 세 가지 기술을 거치면,
00:16:38비디오의 90% 정도가 설계된 셈입니다.
00:16:43제목과 훅, 썸네일에 들어갈 문구까지 정해졌으니
00:16:47패키징은 거의 끝난 셈이고,
00:16:48비디오 개요가 실제 콘텐츠의 뼈대를 잡아줍니다.
00:16:52여기에 포함되지 않은 유일한 것은 썸네일 자체를 제작하는 일인데,
00:16:56하지만 그것은 개인적인 취향의 영역입니다.
00:16:58저는 AI가 아무런 정보 없이 썸네일을 만드는 데 뛰어나다고 생각하지 않습니다.
00:17:02제가 구체적인 아이디어를 제시한다면 또 모르겠지만,
00:17:04썸네일은 매우 시각적이고 주관적이죠. 그래서 그 작업은 순수하게 수동으로 합니다.
00:17:08이 단계에 도달해서 결과물에 만족하신다면,
00:17:11이제 실제로 콘텐츠를 촬영할 차례입니다. 그것 역시 완전히 수동이죠.
00:17:15저는 AI 아바타 같은 것을 사용하는 사람이 아닙니다.
00:17:1899%의 경우에 그럴 만한 가치가 없다고 생각하거든요.
00:17:20따라서 실제 제작 부분에 대해서는 딱히 좋은 자동화 방법이 없습니다.
00:17:24이제 네 번째 단계인 배포 단계로 넘어가 보겠습니다.
00:17:28배포에는 몇 가지 층위가 있습니다. 가장 일반적인 형태의 배포는
00:17:32이런 식이죠. "이 영상을
00:17:33솔직히 고백하자면, 저는 영상 편집에 캡컷(CapCut)을 사용합니다.
00:17:37그래서 거기서 유튜브로 바로 게시하거나,
00:17:40틱톡에 올리는 것은 매우 간편하죠.
00:17:42인스타그램에는 솔직히 그냥 수동으로 게시합니다.
00:17:45이게 세상에서 가장 효율적인 방법일까요? 아뇨,
00:17:48하지만 2초밖에 안 걸리고 저는 만족하기 때문에 제게는 잘 맞습니다.
00:17:53특히 인스타그램 릴스는 여러 시도를 해보고 있는데, 그 부분을
00:17:55자동화하는 건 짜증 납니다. 제가 마지막으로 해봤을 때는 아예 불가능했던 것 같아요.
00:17:58그래서 제게 있어 배포란,
00:18:00콘텐츠의 '재가공'에 더 가깝습니다.
00:18:02유튜브 영상을 가져와서 제 웹사이트의
00:18:04블로그 글이나 링크드인, 트위터용 텍스트 콘텐츠로 바꾸고,
00:18:09숏폼으로 재가공하는 식이죠. 긴 영상 하나가 있다면,
00:18:11어떻게 숏폼으로 만들 수 있을까요? 단순히 자르는 것만을 말하는 게 아닙니다.
00:18:15유튜브에서 누군가와 30분, 40분 동안
00:18:18이야기한 내용을 어떻게 30초,
00:18:2260초, 90초짜리 쇼츠나 릴스, 틱톡 영상으로 요약할지에 대한 겁니다.
00:18:27저의 '콘텐츠 캐스케이드'와 '숏폼 스킬'이 바로 이 역할을 합니다.
00:18:30콘텐츠 캐스케이드는 영상을 텍스트로 배포하는 것에 특화되어 있습니다.
00:18:34유튜브 영상을 링크드인용으로 바꾸는 거죠. 다른 스킬들과 마찬가지로
00:18:36이것 역시 매우 자유롭게 커스텀할 수 있습니다.
00:18:40여러분에게는 유튜브라는 거대한 콘텐츠 소스가 없을지도 모릅니다.
00:18:43하지만 소스는 무엇으로든 바꿀 수 있습니다.
00:18:48그저 아티클 하나나 다른 사람의 유튜브 영상을 지정해서,
00:18:52텍스트 형식으로 이야기하고 싶은 내용을 고를 수도 있죠.
00:18:55그러면 이 스킬이 그걸 가져와서 블로그, 트위터, 링크드인 글로 만들어줍니다.
00:18:58당연히 이 스킬은 특히 제 말투에 최적화되어 있지만,
00:19:02그걸 수정하는 건 그리 어렵지 않습니다.
00:19:04특히 테스트를 수행해 주는 '스킬 크리에이터' 스킬을 사용한다면 더욱 그렇죠.
00:19:07제가 콘텐츠 캐스케이드 스킬을 실행하면,
00:19:09유튜브에서 자동으로 스크립트를 추출합니다.
00:19:15그걸 블로그 포스트로 변환해 자동으로 게시하고, 7개 정도의
00:19:18답글이 달린 트위터 스레드로 만듭니다. 이것 역시
00:19:19제 승인이 떨어지면 자동으로 게시되며, 몇 가지 버전의 링크드인 포스트도 제안합니다.
00:19:22솔직히 말씀드리면 제가 링크드인에는 좀 게으른 편인데,
00:19:26리드 샤크(Lead Shark) 같은 도구를 쓰기 때문에 링크드인 포스트는 자동화하지 않습니다.
00:19:29그걸로 블로그 포스트를 생성해 자동으로 게시하고, 7개 정도의 답글이 달린
00:19:33트위터 스레드로 변환합니다. 이것 역시,
00:19:35제가 승인하면 자동으로 게시되고, 몇 가지 버전의 링크드인 게시물도 만들어줍니다.
00:19:39솔직히 고백하자면 제가 링크드인에는 좀 게으른 편입니다.
00:19:44하지만 링크드인 포스팅을 자동화하지 않는 이유는 리드 샤크(Lead Shark) 같은 것을 쓰기 때문입니다.
00:19:48그러니까,
00:19:48보통 리드 마그넷(Lead Magnet) 설정을 해두기 위해 그렇게 합니다.
00:19:53이 기술은 그 역할을 아주 훌륭하게 수행합니다. 왜냐하면,
00:19:57소셜 미디어 플랫폼이 정말 너무나도 많기 때문입니다.
00:20:01현실적으로 이렇게 말하는 건 무리예요. "좋아,
00:20:03이제 이 콘텐츠를 가져다가 나 혼자서 이런 포스팅들을 다 써야지."
00:20:07제 자신을 잘 알거든요, 전 영상 콘텐츠를 만드는 사람이지
00:20:10글 쓰는 쪽은 아니에요. 그래서 기술적으로 자동화할 수 있는 건 뭐든 좋습니다.
00:20:14여기 제 웹사이트 블로그 섹션을 보시면 아시겠지만, 시스템이 자동으로
00:20:17블로그 포스트 전체를 생성해 주는 것은 물론이고
00:20:20구글 검색 같은 곳에서의 노출도도 함께 높아지겠죠?
00:20:24SEO 최적화가 잘 되어 있죠.
00:20:28그래서 이 블로그의 핵심 아이디어는 "와,
00:20:31내 블로그 글이 정말 훌륭해"라는 것보다는
00:20:33제 콘텐츠 저장소가 계속 커짐에 따라 블로그도 함께 성장하고
00:20:38구글 검색 같은 곳에서의 노출도도 높아진다는 점입니다.
00:20:40모든 것이 서로 연결되어 있는 구조죠.
00:20:42왜냐하면 저는 절대로 저 블로그 글들을 직접 쓰지 않을 거니까요.
00:20:45물론 제가 쓴 글들을 시스템에 아주 많이 학습시켜서 제 문체를 익히게 했습니다.
00:20:48덕분에 소위 말하는 "ChatGPT스러운" 말투를 피할 수 있죠. X가 아니라 Y인 셈이죠.
00:20:52그게 기술의 핵심입니다.
00:20:55AI 글쓰기의 뻔한 상투적 표현들을 파악해서 피하도록 되어 있죠.
00:20:59그리고 마지막으로 언급할 것은 숏폼 콘텐츠로의 재가공입니다.
00:21:02숏폼 재가공 방식은 꽤 기본적인데요.
00:21:05본질적으로 훅이나 아웃라인 같은 요소들을 다시 다듬는 작업입니다.
00:21:10그런 다음 30초, 60초, 90초 분량의 형식으로 변환하는 거죠.
00:21:15사용할 수 있는 훅도 제공해 주고요.
00:21:16영상 시작 부분에 화면에 띄울 잠재적인 캡션들도 알려줍니다.
00:21:20이건 우리가 이미 했던 작업을 압축해 놓은 형태라고 보시면 됩니다.
00:21:23제 숏폼 콘텐츠가 이미 롱폼 영상을 기반으로 하고 있기 때문에
00:21:28작업은 거의 다 끝난 것이나 다름없습니다. 불필요한 부분만 걷어내면 되니까요.
00:21:31하지만 이를 통해 제가 할 수 있는 건
00:21:33맞죠? 유튜브에서 만든 하나의 메인 콘텐츠로 6개의 서로 다른 콘텐츠를 만드는 겁니다.
00:21:36그게 바로 '콘텐츠 캐스케이드'라는 이름이 붙게 된 이유입니다.
00:21:41그리고 이 시스템의 묘미는 단순히 유튜브 영상 하나로 끝나지 않는다는 점에 있습니다.
00:21:45유튜브 영상 그 자체가 이전에 말했던 것처럼 지식의 원천이 되지만,
00:21:48그것은 바로 여러분을 위한 것입니다.
00:21:52이것이 바로 저의 '클로드 코드 콘텐츠 시스템'입니다.
00:21:55말 그대로 제 협업자에게 강력한 엔진을 달아준 것과 같죠. 전에도 말했듯이,
00:21:59이 프로세스의 모든 단계에서 저는 클로드와 의견을 주고받습니다.
00:22:02마지막에 완벽한 결과물을 내놓을 것이라고 기대하지는 않거든요.
00:22:06그게 바로 여러분을 위한 것이 됩니다.
00:22:09이것이 바로 저의 "Claude 코드 콘텐츠 시스템"입니다.
00:22:11말하자면 성능이 대폭 강화된 협업 파트너인 셈이죠. 전에도 말씀드렸듯이
00:22:14이 과정의 모든 단계에서 저는 Claude와 계속 소통합니다.
00:22:17Claude가 마지막에 완벽한 결과물을 내놓을 거라고 기대하지는 않아요.
00:22:20하지만 정말 많은 단순 반복 작업을 녀석에게 넘깁니다. 모든 분석 작업,
00:22:24모든 경쟁사 조사, 그리고 모든 훅 제작,
00:22:27기초적인 아이디어 구상까지 녀석이 다 해줍니다.
00:22:29덕분에 저는 더 가치 있는 일에 집중할 수 있죠. 게다가
00:22:32일단 콘텐츠 하나를 만들고 나면
00:22:34그 콘텐츠를 다양한 형태의 플랫폼으로 유통할 수 있도록
00:22:39실행하기 아주 쉬운 경로를 제공해 줍니다.
00:22:42이것이 바로 소위 "대박" 난 게시물 하나 없이도
00:22:461인 기업가로서 월 천만 뷰 같은 성과를 낼 수 있는 비결입니다.
00:22:48만약 여러분이 이 모든 기술들과
00:22:50트위터 리서치 엔진, GitHub 스크립트, Claude 코드 마스터클래스를 직접 경험해보고 싶다면
00:22:55Chase AI Plus를 꼭 확인해 보세요.
00:22:57영상 설명란과 댓글에 링크를 남겨두었습니다.
00:23:00또한 설명란에 저의 무료 Chase AI 커뮤니티 링크도 있습니다.
00:23:04AI를 이제 막 시작하시려는 분들을 위한 무료 리소스가 많이 준비되어 있습니다.
00:23:07그럼 오늘 내용이 어땠는지 의견 들려주시고, 다음에 또 뵙겠습니다.

Key Takeaway

편집자 없는 1인 팀이 한 달 만에 1,000만 뷰를 달성한 비결은 Claude Code를 활용해 조사부터 배포까지 전 과정을 자동화하고, 폭발적인 바이럴 대신 꾸준한 다량의 콘텐츠를 공급하는 '콘텐츠 캐스케이드' 시스템에 있습니다.

Highlights

한 달 동안 90개의 콘텐츠(롱폼 30개, 숏폼 60개)를 발행하여 총 조회수 1,000만 회와 유튜브 팔로워 38,000명 증가를 달성했습니다.

단일 영상의 최대 조회수가 40만 회를 넘지 않았음에도 90개의 영상을 꾸준히 공급하는 시스템을 통해 누적 1,000만 뷰를 기록했습니다.

Claude Code와 NotebookLM을 결합하여 유튜브 URL이나 PDF 자료를 터미널에서 즉시 분석하고 조사 보고서를 생성합니다.

GitHub 트렌딩 저장소와 트위터 스크래핑 앱을 활용해 매 45분마다 새로운 콘텐츠 소재를 자동으로 발굴하고 점수를 매깁니다.

메인 유튜브 영상 하나를 활용해 블로그 포스트, 트위터 스레드, 링크드인 게시물, 숏폼 스크립트 등 6가지 이상의 서로 다른 콘텐츠로 재가공합니다.

Timeline

1인 팀의 월간 1,000만 조회수 달성 지표

  • 30일간 롱폼 30개와 숏폼 60개를 포함하여 총 90개의 영상을 혼자서 제작했습니다.
  • 한두 개의 영상이 대박 터지는 방식이 아니라 90개의 영상이 고르게 성과를 내는 전략을 취합니다.
  • 하루 12시간 이상 일하지 않고도 시스템을 통해 지속 가능한 작업량을 유지합니다.

유튜브, 인스타그램, 틱톡을 합쳐 한 달 만에 약 10만 명의 팔로워를 확보했습니다. 결정타 한 방을 노리기보다 90번의 잽으로 승리하는 방식을 통해 운에 기대지 않는 반복 가능한 성공 모델을 구축했습니다. 이는 가상 비서나 외부 편집자 없이 오직 자동화 기술로만 구현된 결과입니다.

지식의 원천 확보와 0단계 조사 자동화

  • 콘텐츠 제작 프로세스를 조사, 구상, 작성, 배포의 4단계로 구분하여 관리합니다.
  • 트위터 스크래퍼를 통해 매 45분마다 키워드 기반의 트윗을 수집하고 확산 속도와 권위 점수를 매깁니다.
  • GitHub 트렌딩 스크립트가 매일 아침 상위 10개 저장소를 요약하여 Obsidian 보관함에 저장합니다.

남들이 이미 다룬 주제가 아닌 신선한 소재를 찾기 위해 정보의 발원지인 GitHub와 트위터를 실시간으로 감시합니다. Claude Code로 직접 구축한 웹 앱은 수집된 정보를 소프트맥스 알고리즘으로 필터링하여 최적의 답변 후보까지 제안합니다. 이 과정은 단순히 자료를 모으는 데 그치지 않고 콘텐츠의 '0단계'인 아이디어 소싱 문제를 해결합니다.

NotebookLM 연동 및 데이터 분석 시스템

  • NotebookLM PI CLI 도구를 사용하여 터미널에서 구글 서버의 분석 기능을 호출합니다.
  • 분석 결과물은 모두 마크다운 파일 형태로 Obsidian 보관함에 자동 저장됩니다.
  • 유튜브 파이프라인 기술을 통해 URL 하나로 정보 수집과 심층 분석을 동시에 수행합니다.

클로드의 토큰을 낭비하지 않고 Gemini와 NotebookLM의 능력을 활용해 방대한 자료를 처리합니다. 모든 데이터가 Obsidian에 쌓이기 때문에 사용자는 복잡한 터미널 환경 대신 익숙한 문서 관리 도구에서 최종 보고서를 검토할 수 있습니다. 이는 AI와 인간이 협업할 때 발생하는 인지적 과부하를 줄여주는 핵심 장치입니다.

경쟁 우위 확보를 위한 아이디어 구상 및 전략

  • 욕구 매핑(Desire Mapping)을 통해 시장의 빈틈과 사람들이 진정으로 원하는 지점을 파악합니다.
  • Claude Code가 제안하는 9가지 이상의 비디오 아이디어 중 가장 경쟁력 있는 순위를 검토합니다.
  • AI를 단순 실행기가 아닌 분석 제안을 던지는 협업 파트너로 활용하여 창의적 주도권을 유지합니다.

조사한 내용을 진공 상태가 아닌 실제 경쟁 환경에 대입하여 분석합니다. 이미 포화된 관점은 피하고 아무도 이야기하지 않은 '경쟁적 공백'을 공략하는 전략을 세웁니다. AI가 모든 것을 알아서 완성하게 두지 않고, 단계별로 인간이 개입하여 의사결정을 내림으로써 콘텐츠의 품질과 독창적인 목소리를 보존합니다.

패키징 최적화와 스크립트 설계 기술

  • 영상 전체 대본 대신 초반 30초의 '훅'과 핵심 불렛 포인트로 구성된 개요만 작성합니다.
  • 과거 성과 데이터를 기반으로 제목의 등급을 나누고 ABC 테스트를 위한 변형안을 생성합니다.
  • 시각적 훅과 텍스트 오버레이 옵션을 포함한 5가지 버전의 도입부를 제안받아 선택합니다.

콘텐츠의 성패를 좌우하는 패키징(제목, 썸네일 문구, 훅)에 자동화 역량을 집중합니다. 특히 제목 생성 시에는 채널의 과거 데이터를 참고하여 클릭률이 높을 것으로 예상되는 이유를 논리적으로 설명해 줍니다. 썸네일 제작과 촬영은 인간의 주관적 취향과 진정성이 중요한 영역이므로 수동 방식을 유지하여 AI의 이질감을 제거합니다.

콘텐츠 캐스케이드와 멀티 플랫폼 배포 자동화

  • 메인 영상의 스크립트를 추출해 블로그 포스트와 7개 이상의 트윗 스레드로 즉시 변환합니다.
  • SEO 최적화된 블로그 글을 자동으로 게시하여 검색 노출과 콘텐츠 저장소를 동시에 확장합니다.
  • AI 특유의 말투를 피하기 위해 사용자의 기존 문체를 학습시킨 전용 스킬을 사용합니다.

영상 하나를 만드는 고된 작업을 한 번으로 끝내지 않고 다양한 플랫폼에 맞게 재가공하여 가치를 극대화합니다. 링크드인, 트위터, 웹사이트 블로그 등으로 퍼져나가는 이 과정은 '콘텐츠 폭포(Cascade)'와 같습니다. 이를 통해 사용자는 글을 직접 쓰지 않고도 검색 엔진에서 노출도가 높아지는 효과를 얻으며, 1인 기업가로서 압도적인 점유율을 확보합니다.

Community Posts

View all posts