세쿼이아 인공지능 어센트 2026에서 스테파니 잔이 안드레 카파시와 나눈 약 30분짜리 대화. 영상 제목은 ‘안드레 카파시: 바이브 코딩에서 에이전틱 엔지니어링으로’다. 카파시는 자신이 말한 ‘바이브 코딩’ 이후 1년 사이에 코딩 도구가 어떻게 바뀌었는지, 그리고 이제는 단순히 코드를 빨리 쓰는 문제가 아니라 에이전트를 조율하는 엔지니어링 문제가 됐다고 설명한다.
핵심
카파시가 말하는 변화의 출발점은 2025년 12월 무렵이다. 이전까지 인공지능 코딩 도구는 유용하지만 수정이 필요한 코드 조각을 내놓는 수준이었는데, 어느 순간부터는 꽤 큰 단위의 코드가 거의 수정 없이 들어맞기 시작했다. 그때부터 사람은 구현의 미세한 부분보다 방향, 요구사항, 검증, 구조를 더 많이 다루게 된다.
그는 이 변화를 ‘소프트웨어 3.0’으로 설명한다. 소프트웨어 1.0은 사람이 명시적으로 코드를 쓰는 방식이고, 소프트웨어 2.0은 데이터셋과 학습으로 신경망을 프로그래밍하는 방식이다. 소프트웨어 3.0에서는 프롬프트와 맥락이 프로그램에 가까워지고, LLM이 그 맥락을 해석해 정보 공간에서 작업을 수행한다.
흥미로운 예시는 오픈클로 설치 방식이다. 예전 같으면 다양한 플랫폼을 지원하는 복잡한 셸 스크립트를 작성했겠지만, 소프트웨어 3.0에서는 설치 절차를 에이전트에게 줄 텍스트 지시문으로 만든다. 환경 차이와 디버깅은 에이전트가 현장에서 처리한다. 프로그래밍의 산출물이 코드에서 ‘에이전트가 실행할 수 있는 맥락’으로 옮겨가는 셈이다.
또 다른 예시는 메뉴 사진 앱이다. 카파시는 메뉴 사진을 올리면 음식 사진을 생성해 보여주는 앱을 만들었지만, 나중에는 제미나이에 메뉴 사진을 주고 “각 메뉴 항목 위에 이미지를 얹어 달라”고 요청하는 편이 더 직접적이라는 걸 깨달았다. 앱 전체가 사실은 구시대적 우회로였고, 신경망이 원본 이미지에서 바로 새 이미지를 만들어내는 방식이 더 ‘소프트웨어 3.0’답다는 얘기다.
검증 가능성
카파시는 LLM이 특히 강한 영역을 ‘검증 가능성’으로 설명한다. 수학과 코딩처럼 정답 또는 보상을 비교적 명확하게 줄 수 있는 영역은 강화학습 환경을 만들기 쉽고, 그 결과 모델의 능력이 빠르게 올라간다. 반대로 검증이 어렵거나 학습 분포에 덜 들어간 영역에서는 최신 모델도 이상한 실수를 한다.
그가 든 예시는 “50미터 떨어진 세차장에 차를 씻으러 가려면 걸어가야 하나, 운전해야 하나” 같은 질문이다. 뛰어난 모델이 거대한 코드베이스를 리팩터링하면서도 이런 생활 상식 질문에는 엉뚱한 답을 할 수 있다. 그래서 모델 능력은 매끈하게 올라가는 것이 아니라 들쭉날쭉하게 생긴다.
창업자에게는 이 지점이 기회가 된다. 어떤 산업의 문제가 검증 가능한 형태로 바뀔 수 있고, 좋은 강화학습 환경이나 평가 데이터를 만들 수 있다면, 대형 연구소가 아직 집중하지 않은 영역에서도 강한 제품을 만들 수 있다. 중요한 질문은 “인공지능이 이걸 할 수 있나”보다 “이 작업의 성공과 실패를 어떻게 기계적으로 검증할 수 있나”에 가깝다.
바이브 코딩과 에이전틱 엔지니어링
카파시는 바이브 코딩을 “모든 사람의 소프트웨어 제작 능력의 바닥을 끌어올리는 것”으로 본다. 누구나 더 쉽게 앱과 도구를 만들 수 있게 된다.
반면 ‘에이전틱 엔지니어링’은 전문 소프트웨어의 품질 기준을 유지하면서 에이전트를 써서 더 빠르게 가는 방법이다. 보안 취약점, 잘못된 데이터 모델, 어설픈 추상화, 배포와 운영 리스크를 그대로 둔 채 “돌아가니까 됐다”로 끝내면 안 된다. 에이전트는 강력하지만 확률적이고 들쭉날쭉한 도구이기 때문에, 사람은 품질 기준과 검증 순환 구조를 설계해야 한다.
그는 좋은 인공지능 네이티브 개발자를 평가하는 방식도 달라져야 한다고 본다. 작은 알고리즘 퍼즐을 푸는 시험보다, 큰 프로젝트를 만들게 하고 여러 에이전트로 깨뜨려 보며 품질과 보안을 확인하는 방식이 더 맞다. 에이전트를 잘 쓰는 사람은 단순히 프롬프트를 잘 쓰는 사람이 아니라, 큰 작업을 쪼개고, 검증하고, 배포 가능한 수준으로 끌어올리는 사람이다.
사람이 맡아야 할 것
현재의 에이전트는 뛰어난 인턴에 가깝다. 인터페이스 이름, 라이브러리 문법, 반복 구현 같은 세부사항은 잘 처리하지만, 제품의 정합성이나 데이터 모델의 핵심 판단은 여전히 사람이 봐야 한다.
카파시는 자신의 앱에서 구글 계정 이메일과 스트라이프 이메일을 대조해 크레딧을 연결하려던 에이전트 사례를 든다. 이메일 주소는 서로 다를 수 있으니 영속적인 사용자 ID로 묶어야 하는데, 에이전트는 그 기본 설계를 놓쳤다. 이런 문제는 코드가 돌아가는지만 봐서는 잘 보이지 않는다.
그래서 앞으로 더 중요해지는 사람의 능력은 취향, 판단, 설계, 이해다. 세부 인터페이스는 덜 외워도 되지만, 내부 저장소와 뷰의 차이처럼 성능과 구조에 영향을 주는 기본 개념은 알아야 한다. 에이전트에게 무엇을 시킬지, 어떤 결과를 좋은 결과로 볼지 정하는 능력이 병목이 된다.
동물이 아니라 유령
카파시는 LLM을 동물이라기보다 유령에 가깝다고 표현한다. 진화 과정에서 생긴 욕구, 호기심, 재미, 자율적 동기가 있는 존재가 아니라, 사전학습과 강화학습으로 만들어진 통계적 시뮬레이션 회로라는 뜻이다.
이 관점은 모델을 대하는 태도를 바꾼다. 모델에게 화를 내거나 인간처럼 동기를 부여한다고 더 잘 작동하는 것이 아니다. 모델은 어떤 데이터와 보상 구조를 거쳤는지에 따라 특정 영역에서 비정상적으로 강하고, 다른 영역에서는 허술할 수 있다. 그래서 신뢰는 감정적 친숙함이 아니라 반복적인 평가와 검증에서 와야 한다.
에이전트 네이티브 환경
카파시는 앞으로 많은 도구와 인프라가 사람 중심에서 에이전트 중심으로 다시 쓰일 것이라고 본다. 지금의 문서는 여전히 “사람이 클릭하고 설정하라”는 방식으로 되어 있지만, 에이전트 시대에는 “이 텍스트를 에이전트에게 넘기면 된다”는 식의 인터페이스가 더 중요해진다.
그는 배포, 도메인 설정, 서비스 연결 같은 작업이 아직 너무 사람용 인터페이스에 묶여 있다고 지적한다. 진짜 에이전트 네이티브 환경에서는 “이 앱을 만들어서 인터넷에 배포해줘”라고 말했을 때, 사람이 여러 대시보드를 돌아다니며 설정을 만질 필요가 없어야 한다.
교육과 이해
마지막으로 카파시는 인공지능 시대에도 깊이 배워야 할 것이 남는다고 말한다. 인상적인 문장으로는 “사고는 넘어서더라도 이해는 넘어설 수 없다”는 말을 언급한다.
인공지능이 많은 사고 과정을 대신 처리할 수는 있지만, 무엇을 만들고 싶은지, 왜 중요한지, 어떤 방향으로 에이전트를 움직여야 하는지는 여전히 사람의 이해에 달려 있다. 그래서 그는 LLM 기반 지식 베이스에도 관심을 보인다. 자료를 다른 구조로 재조합하고 질문하면서, 사람이 더 잘 이해하도록 돕는 도구가 중요해진다는 관점이다.
메모
이 영상은 카파시의 이전 트윗 프로그래머로서 뒤처지는 기분을 길게 풀어 설명한 대화에 가깝다. 핵심은 “인공지능이 코딩을 빠르게 해준다”가 아니라, 개발의 중심이 코드 작성에서 에이전트 조율, 검증 가능한 작업 설계, 지식 구조화로 이동하고 있다는 점이다.