개발자로서 현장에서 일하면서 새로 접하는 기술들이나 알게된 정보 등을 정리하기 위한 블로그입니다. 운 좋게 미국에서 큰 회사들의 프로젝트에서 컬설턴트로 일하고 있어서 새로운 기술들을 접할 기회가 많이 있습니다. 미국의 IT 프로젝트에서 사용되는 툴들에 대해 많은 분들과 정보를 공유하고 싶습니다.
오늘은 LLMCompiler 두번째 시간입니다. 제가 그동안 정리했던 AI Application Flow 에 대한 Insight를 공유합니다. AI 어플리케이션이 기존의 Traditional Application 과 다른 점을 설명합니다. 그리고 그 둘을 어떻게 연결하는지도 보여 드리구요.
처음 AI Application Flow 를 설명하는 부분은 개발자가 아닌 분들도 보시면 AI Application을 이해하는데 도움이 될 겁니다.
그리고 LLMCompiler Tutorial 에서 제공하는 소스코드를 분석하면서 그 Flow 가 소스코드로 어떻게 구현되는지 자세히 설명합니다.
이 부분은 AI Application 개발에 관심이 있으신 분들에게 도움이 될 겁니다.
또한 이 소스코드를 실행하고 LangSmith 의 Tracing 기능을 통해 실제로 그 Flow 가 진행되는 과정을 직접 보여 드립니다.
이 부분은 개발자와 비개발자 모두에게 AI Application Flow 가 실제로 어떻게 실행되는지 직접 눈으로 보실 수 있어서 이해에 도움이 될 겁니다.
여기서 제공되는 AI Application Flow 는 제가 고민했던 내용을 정리한 것입니다. 다른 곳에서는 보실 수 없을 겁니다.
일부에서 AI 시대에는 코딩을 배울 필요가 없다라고 말하는 사람들도 있습니다. 하지만 저는 생각이 다릅니다.
AI 시대에 왜 코딩을 배워야 하는지 그리고 어떤식으로 배워야 하는지 직접 확인해 보세요.
가장 큰 목적은 일단 라방으로 유투브에 올려 놓으면 집에가서 Transcript 를 볼 수 있어서 나중에 좀 더 자세히 그 Startup들에 대해 알아보려고 그랬습니다.
라방때 한두분 , 많을 때는 세네분 정도 들어 오셨는데.. 화질도 안 좋고 음질도 안 좋은 모습 보여드려서 죄송스럽네요.
여기 집에와서 각 Startup들에 대해 조사한 내용들 정리하겠습니다.
Startup 이나 AI Application 개발에 관심 있으신 분들 조금이라도 도움이 되시길 바라겠습니다.
그 때 라방에 오셨던 분들도 이 정보가 도움이 되시면 좋겠네요.
아래 그 내용입니다.
Grok 3 와 ChatGPT o1 을 사용했습니다.
Note : 각 Startup 별로 정리를 다 한 후 ChatGPT o1 에게 참가한 업체들을 Category 별로 나눠달라고 했습니다. 그랬더니 아래와 같이 나누어 주더라구요. 각 업체별 Research 내용 보시기 전이 이 Category 별로 정리한 내용 먼저 보셔도 좋을 것 같습니다.
Daytona (https://www.daytona.io/)는AI가 생성한 코드를 격리된 환경에서 안전하게 실행할 수 있는 인프라/툴링 플랫폼으로, 로컬 시스템을 위험에 노출시키지 않고도 코드를 테스트할 수 있게 해줍니다. 아래는 대화를 바탕으로 정리한 핵심 요약입니다.1. 개요 및 핵심 기능
격리된 ‘샌드박스’ 생성
Daytona는 안전하고 필요할 때마다 생성되는 샌드박스(가상머신 혹은 VM)를 제공하여, 특히 AI가 생성한 코드를 안전하게 실행할 수 있도록 합니다.
이를 통해 로컬 머신에서 직접 코드를 돌리며 발생할 수 있는 보안 및 환경적 문제를 방지할 수 있습니다.
코드 실행 및 다양한 툴링 지원
샌드박스 내부에서 파일 업로드, Git 리포지토리 복제(clone), 명령어 실행, 파일시스템 관리 등을 수행할 수 있습니다.
예를 들어 AI 에이전트가 생성한 코드를 샌드박스에 업로드해 바로 빌드·실행할 수 있습니다.
커스텀 이미지 & 설정
사용자는 Docker 이미지를 등록하여 Daytona에서 이를 불러와 샌드박스를 생성할 때 사용할 수 있습니다.
즉, 필요한 라이브러리나 의존성을 미리 포함한 이미지를 준비해 두고, 샌드박스를 생성할 때 지정만 하면 원하는 환경이 자동으로 구성됩니다.
샌드박스 내에서 웹 서버가 구동 중이라면, Daytona가 공용 링크를 생성하여 브라우저로 직접 접근 가능하게 합니다.
5. 요약
Daytona는 온디맨드로 안전한 샌드박스를 생성해 AI가 생성한 코드를 실행할 수 있는 플랫폼입니다. 로컬 머신 오염을 걱정할 필요 없이, 격리된 환경에서 코드를 빌드·실행하고 테스트할 수 있습니다. 또한 잘 정리된 SDK와 CLI를 통해 손쉽게 연동이 가능하므로, AI 개발이나 DevOps 환경에 최적화된 인프라를 구축할 수 있습니다.
스크립트는 2025년 시애틀 스타트업 서밋에서 Galileo AI의 발표 내용으로, AI 애플리케이션 개발의 도전 과제를 다룹니다.
발표자는 AI가 완벽하지 않으며 결함이 있을 수 있다고 강조하며, 이를 관리하기 위한 Galileo AI의 도구를 소개했습니다.
Galileo AI는 생성 AI 애플리케이션을 평가, 개선, 모니터링, 보호하는 플랫폼을 제공하며, 기업 규모에서 신뢰를 구축하는 데 도움을 줍니다.
상세 설명
배경 및 발표 내용
2025년 3월 28일, 시애틀 스타트업 서밋에서 Galileo AI의 발표가 진행되었습니다. 발표자는 선임 개발자 경험 엔지니어로, "de 팀"에서 활동 중입니다. 발표 내용은 AI를 활용한 애플리케이션 개발의 어려움을 다루며, AI가 항상 완벽하지 않고 결함이 있을 수 있음을 강조했습니다. 특히, "AI로 빌드할 때 우리는 종종 플래그(flag)와 함께 작업한다"고 언급하며, AI의 불완전성을 관리하기 위한 접근 방식을 논의했습니다. 이는 AI 출력의 오류를 처리하거나 다양한 시나리오를 관리하기 위한 소프트웨어 개발에서의 플래그 사용과 관련이 있을 가능성이 높습니다.
Galileo AI의 역할 및 기능
Galileo AI는 생성 AI 애플리케이션을 평가, 반복 개선, 모니터링, 보호하는 데 초점을 맞춘 회사입니다. 그들의 주요 제품인 **평가 인텔리전스 플랫폼(Evaluation Intelligence Platform)**은 Luna 평가 스위트를 기반으로 하며, 비용, 지연 시간, 정확도를 최적화한 연구 기반 메트릭을 제공합니다. 이 플랫폼은 다음과 같은 기능을 포함합니다:
실험 및 반복(Galileo Evaluate): 모델 및 프롬프트 플레이그라운드, A/B 테스트, 비교 및 리더보드, 추적 및 시각화, 프롬프트 저장소 및 버전 관리 등 오프라인 실험 및 테스트를 지원합니다.
모니터링 및 디버깅: AI 애플리케이션의 실시간 모니터링 및 문제 해결을 가능하게 합니다.
흥미로운 점은 Galileo AI가 단순히 UI 디자인 생성에 국한되지 않고, AI 개발의 더 넓은 영역, 특히 기업 환경에서의 AI 운영(MLOps)에 초점을 맞추고 있다는 점입니다. 이는 일반적으로 AI 도구가 디자인 중심으로 여겨지는 것과는 다른 접근 방식입니다.
보고서: Galileo AI에 대한 상세 분석
이 보고서는 2025년 3월 28일 시애틀 스타트업 서밋에서 발표된 Galileo AI 스크립트를 요약하고, Galileo AI에 대한 상세한 설명을 제공합니다. 발표 내용과 웹 검색을 통해 수집된 정보를 바탕으로, 회사의 역할, 제품, 서비스, 그리고 AI 결함 관리 방식을 분석했습니다.
발표 스크립트 분석
스크립트는 Galileo AI의 선임 개발자 경험 엔지니어가 발표한 내용으로, AI 개발의 도전 과제를 다룹니다. 발표자는 AI가 완벽하지 않으며 결함이 있을 수 있다고 언급하며, "AI로 빌드할 때 우리는 종종 플래그와 함께 작업한다"고 설명했습니다. 이는 AI 출력의 오류를 관리하거나 다양한 시나리오를 처리하기 위한 소프트웨어 개발에서의 플래그 사용을 암시합니다. 발표는 AI의 불완전성을 인정하고, 이를 해결하기 위한 Galileo AI의 도구를 소개하는 데 초점을 맞췄습니다.
Galileo AI의 회사 개요
Galileo AI는 생성 AI 애플리케이션의 평가, 반복 개선, 모니터링, 보호에 특화된 회사입니다. 그들의 플랫폼은 기업 규모에서 AI 팀이 신뢰할 수 있는 애플리케이션을 구축하도록 지원하며, 특히 MLOps(머신 러닝 운영)와 관련된 도구를 제공합니다. 회사는 2022년에 설립되었으며, 샌프란시스코에 본사를 두고 있습니다 (Galileo AI - Crunchbase Company Profile & Funding).
주요 제품 및 서비스
Galileo AI의 주요 제품은 **평가 인텔리전스 플랫폼(Evaluation Intelligence Platform)**으로, Luna 평가 스위트를 기반으로 합니다. 이 플랫폼은 다음과 같은 기능을 제공합니다:
기능
설명
플랫폼 이름
Galileo Evaluation Intelligence Platform
목적
기업 규모에서 AI 애플리케이션 평가, 반복 개선, 모니터링, 보호
동력
Luna Evaluation Suite
혜택
- 생산 시간 4배 빠름<br>- 환각 문제 해결 10배 빠름<br>- 복합 AI 시스템 100% 가시성
플랫폼 모듈
- 실험 및 반복<br>- 모니터링 및 디버깅<br>- 보호 및 보안
Luna 평가 스위트
비용, 지연 시간, 정확도를 최적화한 연구 기반 메트릭
Galileo Wizard
생산 스루풋을 위한 추론 최적화
메트릭 기능
- 사용 및 피드백에 따라 자동 개선되는 스마트 메트릭<br>- 정확도, 지연 시간, 비용 효율성 최적화(LLM 또는 SLM 기반)<br>- 수백만 행까지 확장 가능
특히, Galileo Evaluate는 오프라인 실험 및 테스트를 지원하며, 모델 및 프롬프트 플레이그라운드, A/B 테스트, 비교 및 리더보드, 추적 및 시각화, 프롬프트 저장소 및 버전 관리를 포함합니다. 이는 AI 결함을 빠르게 식별하고 개선하는 데 유용합니다 (The Generative AI Evaluation Company - Galileo AI).
AI 결함 관리 방식
Galileo AI는 AI 결함을 관리하기 위해 평가 및 모니터링 도구를 제공합니다. 예를 들어, 사용자는 플랫폼을 통해 AI의 환각(hallucination) 문제를 빠르게 해결하거나, 정확도를 향상시킬 수 있습니다. TechCrunch 기사에 따르면, Galileo AI는 AI 모델 개발 및 배포를 간소화하여, 특히 MLOps 환경에서 AI 오류를 발견하고 수정하는 데 도움을 줍니다 (Galileo emerges from stealth to streamline AI development). 이는 발표자가 언급한 "플래그와 함께 작업"이라는 개념과 연결될 수 있으며, AI 출력의 불완전성을 관리하기 위한 플래그나 메트릭을 설정하는 데 플랫폼이 사용될 수 있습니다.
시장 위치 및 경쟁
Galileo AI는 MLOps 시장에서 Databricks, DataRobot, Algorithmia와 같은 경쟁사와 비교될 수 있습니다. 이 시장은 2025년까지 40억 달러에 이를 것으로 예상되며, AI 워크플로우의 일반적인 문제를 해결하는 데 초점을 맞추고 있습니다. Galileo AI의 강점은 특히 생성 AI 애플리케이션의 평가 및 모니터링에 특화되어 있다는 점입니다.
예상치 못한 세부 사항
흥미로운 점은 Galileo AI가 UI 디자인 생성에 국한되지 않고, AI 개발의 더 넓은 영역, 특히 기업 환경에서의 AI 운영에 초점을 맞추고 있다는 것입니다. 이는 일반적으로 AI 도구가 디자인 중심으로 여겨지는 것과는 다른 접근 방식으로, 발표 내용이 AI 개발의 기술적 도전에 초점을 맞춘 이유를 설명합니다.
결론
스크립트는 Galileo AI의 발표 내용으로, AI 개발의 도전 과제를 다루며, 회사의 평가 및 모니터링 도구를 소개했습니다. Galileo AI는 생성 AI 애플리케이션의 신뢰를 구축하기 위한 강력한 플랫폼을 제공하며, 특히 AI 결함을 관리하는 데 유용합니다. 이 정보는 AI 팀이 더 나은 애플리케이션을 구축하는 데 도움을 줄 수 있습니다.
Instillux.AI는 여행 및 이민 신청 관리에 특화된 AI 기반 플랫폼을 제공하며, 문서 처리, 워크플로우 자동화, 오류 감지, 고객 지원 등을 지원합니다.
이 플랫폼은 학생, 가족, 여행 에이전트가 비자 신청 과정을 더 쉽게 관리할 수 있도록 돕습니다.
AI, 클라우드, 사이버 보안 기술을 활용하여 효율성과 정확도를 높이고, 데이터 보안을 강화합니다.
예상치 못한 점: 발표자가 마이크로소프트에서 보안 및 AI 분야의 경험을 바탕으로 개인 이민 경험에서 문제를 해결하려 했다는 점입니다.
발표 내용 요약
2025년 3월 28일 시애틀 스타트업 서밋에서 Instillux.AI의 데모 스크립트는 비자 신청 과정의 어려움을 다루었습니다. 발표자는 비자 문서 작업이 고통스럽고 오류가 기회를 잃게 할 수 있다고 언급하며, 특히 학생과 가족, 여행 에이전트가 겪는 어려움을 강조했습니다. 발표자는 마이크로소프트에서 보안 및 AI 분야의 선임 소프트웨어 엔지니어로 활동했으며, 개인 이민 경험에서 문제를 발견하고 이를 해결하기 위해 전문성을 사용했다고 설명했습니다. 청중 중 이민 변호사나 변호사는 부스에서 더 자세한 데모를 볼 수 있다고 초대받았습니다.
Instillux.AI에 대한 상세 분석
회사 개요
Instillux.AI는 2025년 현재, 여행 및 이민 신청 관리에 특화된 AI 기반 솔루션을 제공하는 회사로, 단순성과 최첨단 AI, 클라우드, 사이버 보안 기술을 결합하여 효율성을 높이고 오류를 줄이는 데 초점을 맞추고 있습니다. 이 회사는 개인과 기업이 더 많은 고객을 효율적으로 서비스할 수 있도록 지원하며, 특히 비자 신청과 같은 복잡한 프로세스를 간소화합니다.
주요 제품 및 기능
Instillux.AI의 플랫폼은 다음과 같은 주요 기능을 포함합니다:
AI 기반 문서 인텔리전스: AI를 사용하여 문서를 분류하고 데이터를 정확하게 추출하며, 접근 제어를 통해 문서를 조직하고 공유할 수 있습니다.
워크플로우 강화: 기존 워크플로우를 개선하여 오류를 줄이고 효율성을 높이며, 기존 시스템에 방해 없이 통합됩니다.
사용자 경험 개선: 복잡한 여행 및 이민 신청 워크플로우를 쉽게 탐색할 수 있는 환경을 제공합니다.
신청 워크플로우 자동화: 반복적이고 오류가 발생하기 쉬운 작업을 자동화하여 생산성을 높이고 더 많은 고객을 처리할 수 있습니다.
오류 감지 및 수정: 신청서에서 오류를 식별하고 수정하여 거부 가능성을 최소화합니다.
AI 지원 고객 커뮤니케이션: 고객 상담 중 중요한 신청 정보를 제공하여 전문성을 강화합니다.
지원 문서 형식: PDF, 이미지, 스캔 파일 등 다양한 형식을 지원합니다.
데이터 보안: 산업 표준 암호화 및 개인정보 보호 프로토콜을 통해 데이터를 안전하게 보호합니다.
정밀도 및 신뢰성: 다양한 데이터셋으로 훈련된 고급 AI 모델과 사용자 입력을 통해 정확도를 유지합니다.
이러한 기능들은 특히 비자 신청과 같은 복잡한 문서 작업에서 유용하며, 학생, 가족, 여행 에이전트가 신청서를 효율적으로 관리하고 오류를 줄이는 데 도움을 줍니다.
기술 스택
Instillux.AI는 AI, 클라우드, 사이버 보안 기술을 활용하여 플랫폼을 운영합니다. 구체적인 기술 스택은 공개되지 않았으나, 문서 인텔리전스와 워크플로우 자동화에 AI가 핵심적으로 사용되며, 데이터 보호를 위해 산업 표준 암호화 및 개인정보 보호 프로토콜이 적용됩니다.
시장 위치 및 경쟁
Instillux.AI는 여행 및 이민 신청 관리 시장에서 AI 기반 솔루션을 제공하는 기업으로, 특히 비구조화 데이터를 처리하는 데 강점을 보입니다. 경쟁사로는 Databricks, DataRobot와 같은 MLOps 플랫폼이 있을 수 있으며, 이 시장은 2025년까지 40억 달러에 이를 것으로 예상됩니다. Instillux.AI의 강점은 개인 및 소규모 기업을 위한 접근성과 비자 신청에 특화된 기능입니다.
예상치 못한 세부 사항
흥미로운 점은 발표자가 개인 이민 경험을 바탕으로 이 도구를 비자 신청에 적용하려 했다는 점입니다. 이는 일반적으로 비구조화 데이터 처리 도구가 조직적 데이터 관리에 초점을 맞추는 것과는 다른, 개인적이고 실질적인 문제 해결 접근 방식을 보여줍니다.
상세 비교 표
항목
설명
회사 이름
Instillux.AI
주요 제품
AI 기반 여행 및 이민 신청 관리 플랫폼
주요 기능
문서 분류, 데이터 추출, 워크플로우 자동화, 오류 감지, 고객 지원
대상 사용자
학생, 가족, 여행 에이전트, 이민 변호사
특별 적용 사례
비자 신청 문서 관리 및 오류 감소
보안
산업 표준 암호화 및 개인정보 보호 프로토콜 적용
이 표는 발표 내용과 웹사이트 정보를 기반으로 Instillux.AI의 주요 특징을 요약한 것입니다.
결론
Instillux.AI는 여행 및 이민 신청 관리에 특화된 AI 기반 플랫폼으로, 문서 처리, 워크플로우 자동화, 오류 감지, 고객 지원 기능을 제공하여 효율성과 정확도를 높입니다. 특히 비자 신청과 같은 복잡한 프로세스를 간소화하여 학생, 가족, 여행 에이전트에게 유용하며, 데이터 보안을 강화하여 신뢰를 구축합니다. 이 회사는 AI, 클라우드, 사이버 보안 기술을 활용하여 시장에서 경쟁력을 갖추고 있습니다.
Identities AI는 기업 커뮤니케이션에서 AI 기반 사칭을 실시간으로 탐지하는 플랫폼을 제공합니다.
주요 제품인 **AI Companion™**는 Zoom, Google Meet, Slack, Webex, 전화 통화 등에서 신원을 지속적으로 검증하며, 사칭 시 알림을 보냅니다.
플랫폼은 독점 데이터와 SQL 인텔리전스를 활용하여 사칭을 탐지하며, 금융, 의료, 정부 등 다양한 산업에 적용됩니다.
2024년 기준, AI 음성 사칭 시도가 300% 증가했으며, 사칭 사기로 인해 53억 달러 이상의 손실이 발생했습니다.
발표자는 개인적인 사례(모친이 AI 사칭으로 사기를 당함)를 언급하며, 이 문제의 심각성을 강조했습니다.
예상치 못한 점: 발표자가 개인 경험을 바탕으로 이 문제를 해결하려 한 점이 흥미롭습니다.
발표 내용 요약
Identities AI의 데모 스크립트는 2025년 3월 28일 시애틀 스타트업 서밋에서 발표된 것으로, 기업 워크플로우에 통합되어 실시간으로 AI 사칭을 탐지하는 플랫폼을 소개합니다. 발표자는 플랫폼이 Zoom 통화에서 누군가가 발표자를 사칭하려 할 때 이를 탐지하고 관리자에게 알림을 보내는 데모를 보여주었습니다. 모델은 독점 데이터와 SQL 인텔리전스를 기반으로 훈련되었으며, 오디오와 비디오를 지원하며 여러 사용 사례를 다룹니다. 발표자는 개인적인 동기(모친이 AI 사칭으로 은행 사기를 당함)를 공유하며, AI 사칭 사기가 악화될 것이라고 경고했지만, 그들의 솔루션이 이를 해결할 수 있다고 강조했습니다.
Identities AI에 대한 상세 설명
회사 개요
Identities AI는 AI 시대의 신뢰를 구축하기 위해 디지털 상호작용의 진정성을 보장하는 것을 목표로 하는 회사입니다. 그들의 비전은 혁신을 가능하게 하면서 보안을 강화하는 디지털 상호작용의 신뢰 기반 세계를 만드는 것입니다. 핵심 가치는 신뢰, 무결성, 혁신, 보안, 회복력, 권한 부여, 협력, 전문성, 투명성, 헌신입니다. 현재 1,000개의 글로벌 기업 고객을 보유하고 있으며, AI 기반 사칭 사기로 인한 위협에 대응하고 있습니다.
주요 제품: AI Companion™
AI Companion™는 Identities AI의 주요 제품으로, 기업 커뮤니케이션에서 실시간 신원 검증을 제공합니다. 주요 기능은 다음과 같습니다:
실시간 탐지: 통화 중 AI 사칭 시도를 즉시 식별합니다.
지속적 검증: 비디오 회의, 전화 통화 등에서 신원을 지속적으로 확인합니다.
다중 플랫폼 지원: Zoom, Google Meet, Slack, Webex, 전화 통화 등 다양한 플랫폼과 통합됩니다.
데이터 기반 모델: 독점 데이터와 SQL 인텔리전스를 활용하여 정확한 탐지를 보장합니다.
알림 및 조치: 사칭이 감지되면 관리자에게 알림을 보내고, 필요 시 사칭자를 통화에서 퇴출할 수 있습니다.
이 제품은 금융, 의료, 정부 등 민감한 데이터와 상호작용이 중요한 산업에 특화되어 있습니다. 예를 들어, 금융에서는 실시간 통화 중 사기를 방지하고, 의료에서는 환자 데이터 보호를 강화합니다.
시장 통계 및 중요성
Identities AI는 AI 사칭 사기의 심각성을 강조하며, 2024년 기준으로 다음과 같은 통계를 제시합니다:
정부 관료를 대상으로 한 AI 음성 사칭 시도가 300% 증가.
AI 기반 사칭 사기로 인해 전 세계적으로 53억 달러 이상의 손실 발생.
84%의 보안 리더가 AI 기반 사칭을 2024년 최고의 사이버 보안 우려 사항으로 인식.
이러한 통계는 AI 사칭 사기가 빠르게 증가하는 위협임을 보여주며, Identities AI의 솔루션이 중요한 역할을 한다는 점을 뒷받침합니다.
개인적 동기와 사용 사례
발표자는 개인적인 경험을 공유하며, 몇 달 전 모친(75세)이 AI 사칭으로 은행 사기를 당한 사례를 언급했습니다. 이는 플랫폼 개발의 동기가 되었으며, 많은 사람들이 비슷한 피해를 겪고 있음을 강조했습니다. 이 플랫폼은 Zoom 통화, 전화 통화 등 다양한 커뮤니케이션 워크플로우에 적용될 수 있으며, 고객 사례를 통해 여러 사용 사례를 지원하고 있습니다.
예상치 못한 세부 사항
흥미로운 점은 발표자가 개인적인 사례(모친의 사기 경험)를 바탕으로 이 문제를 해결하려 했다는 점입니다. 이는 일반적으로 기업 솔루션이 기술적 필요에 의해 개발되는 것과 달리, 개인적 동기가 강하게 반영된 접근임을 보여줍니다.
보고서: Identities AI에 대한 상세 분석
이 보고서는 2025년 3월 28일 시애틀 스타트업 서밋에서 발표된 Identities AI의 데모 스크립트를 요약하고, 회사와 제품에 대한 상세한 분석을 제공합니다. 발표 내용과 웹 검색을 통해 수집된 정보를 바탕으로, 회사의 역할, 제품, 서비스, 그리고 AI 사칭 탐지 방식을 분석했습니다.
발표 스크립트 분석
스크립트는 Identities AI의 플랫폼이 기업 워크플로우에 통합되어 실시간으로 AI 사칭을 탐지하는 내용을 다룹니다. 발표자는 Zoom 통화에서 사칭 시도를 탐지하고 관리자에게 알림을 보내는 데모를 보여주었으며, 모델은 독점 데이터와 SQL 인텔리전스를 기반으로 훈련되었습니다. 오디오와 비디오를 지원하며, 여러 사용 사례를 다루고 있습니다. 발표자는 개인적인 동기(모친의 사기 경험)를 공유하며, AI 사칭 사기의 심각성을 강조했습니다.
Identities AI의 회사 개요
Identities AI는 AI 시대의 신뢰를 구축하기 위해 디지털 상호작용의 진정성을 보장하는 회사입니다. 그들의 비전은 혁신을 가능하게 하면서 보안을 강화하는 디지털 상호작용의 신뢰 기반 세계를 만드는 것입니다. 현재 1,000개의 글로벌 기업 고객을 보유하고 있으며, AI 기반 사칭 사기로 인한 위협에 대응하고 있습니다.
주요 제품 및 서비스
Identities AI의 주요 제품은 AI Companion™으로, 실시간 신원 검증을 제공합니다. 플랫폼의 주요 기능은 다음과 같습니다:
기능
설명
실시간 탐지
통화 중 AI 사칭 시도를 즉시 식별하고 알림 제공.
지속적 검증
비디오 회의, 전화 통화 등에서 신원을 지속적으로 확인.
다중 플랫폼 지원
Zoom, Google Meet, Slack, Webex, 전화 통화 등과 통합.
데이터 기반 모델
독점 데이터와 SQL 인텔리전스를 활용하여 정확한 탐지.
조치 가능성
사칭이 감지되면 관리자가 사칭자를 통화에서 퇴출하거나 조치 가능.
이 플랫폼은 금융, 의료, 정부 등 민감한 데이터와 상호작용이 중요한 산업에 특화되어 있습니다.
시장 통계 및 중요성
Identities AI는 AI 사칭 사기의 심각성을 강조하며, 2024년 기준으로 다음과 같은 통계를 제시합니다:
정부 관료를 대상으로 한 AI 음성 사칭 시도가 300% 증가.
AI 기반 사칭 사기로 인해 전 세계적으로 53억 달러 이상의 손실 발생.
84%의 보안 리더가 AI 기반 사칭을 2024년 최고의 사이버 보안 우려 사항으로 인식.
이러한 통계는 AI 사칭 사기가 빠르게 증가하는 위협임을 보여주며, Identities AI의 솔루션이 중요한 역할을 한다는 점을 뒷받침합니다.
개인적 동기와 사용 사례
발표자는 개인적인 경험을 공유하며, 몇 달 전 모친(75세)이 AI 사칭으로 은행 사기를 당한 사례를 언급했습니다. 이는 플랫폼 개발의 동기가 되었으며, 많은 사람들이 비슷한 피해를 겪고 있음을 강조했습니다. 이 플랫폼은 Zoom 통화, 전화 통화 등 다양한 커뮤니케이션 워크플로우에 적용될 수 있으며, 고객 사례를 통해 여러 사용 사례를 지원하고 있습니다.
시장 위치 및 경쟁
Identities AI는 AI 기반 사칭 탐지 시장에서 경쟁사와 비교될 수 있으며, 특히 실시간 통신 보안에 특화되어 있습니다. 경쟁사로는 Ping Identity, Radiant Logic와 같은 IAM(Identity and Access Management) 솔루션이 있을 수 있습니다. 이 시장은 2025년까지 빠르게 성장할 것으로 예상되며, AI 사칭 사기의 증가로 인해 수요가 증가하고 있습니다.
예상치 못한 세부 사항
흥미로운 점은 발표자가 개인적인 사례(모친의 사기 경험)를 바탕으로 이 문제를 해결하려 했다는 점입니다. 이는 일반적으로 기업 솔루션이 기술적 필요에 의해 개발되는 것과 달리, 개인적 동기가 강하게 반영된 접근임을 보여줍니다.
결론
Identities AI는 AI 기반 사칭 사기를 실시간으로 탐지하는 플랫폼을 제공하며, 주요 제품인 AI Companion™는 기업 커뮤니케이션에서 신뢰를 보장합니다. 발표 내용과 웹 검색을 통해, 이 회사가 AI 사칭 사기의 심각성을 해결하려는 중요한 역할을 하고 있음을 알 수 있습니다. 특히 개인적인 동기가 포함된 접근은 사용자의 공감을 얻을 가능성이 높습니다.
Emissary는 AI 모델 개발 플랫폼으로, 사용자 맞춤형 손실 함수와 출력 헤드를 제공하여 특정 작업에 최적화된 모델을 만들 수 있습니다.
플랫폼은 직관적인 인터페이스를 통해 프로젝트 생성, 데이터 업로드, 훈련 작업 설정, 모델 평가, 배포, 생산 환경 모니터링 및 재훈련까지 전 과정을 지원합니다.
자동화된 GPU 관리와 모델 체크포인트 저장 기능을 통해 인프라 복잡성을 줄이고, 개발자가 모델 개발에 집중할 수 있도록 돕습니다.
예상치 못한 점: 발표자가 모델 개발의 직관적 측면을 강조하며, 창의적 접근의 중요성을 언급한 점이 흥미롭습니다.
플랫폼 개요
Emissary는 AI 모델의 빌드, 훈련, 배포를 단순화하는 플랫폼으로, 사용자 맞춤형 최적화를 통해 특정 작업에 최적화된 모델을 구축할 수 있습니다. 발표 내용에 따르면, 플랫폼은 프로젝트 생성, 데이터 업로드, 훈련 작업 커스터마이징, 모델 평가, 배포, 그리고 생산 환경에서의 모니터링 및 재훈련을 지원합니다.
주요 기능
사용자 맞춤형 최적화: 사용자 맞춤형 손실 함수와 출력 헤드를 통해 특정 작업에 최적화된 모델을 만들 수 있습니다.
직관적인 인터페이스: 데이터 업로드 가이드라인과 쉬운 훈련 작업 설정을 제공하여 초보자도 쉽게 사용할 수 있습니다.
자동화된 관리: GPU 인스턴스 생성, 모델 체크포인트 저장, 테스트 실행 등을 자동으로 처리하여 인프라 복잡성을 줄입니다.
생산 환경 지원: 트래픽 모니터링과 재훈련 기능을 통해 모델을 지속적으로 개선할 수 있습니다.
보고서: Emissary에 대한 상세 분석
이 보고서는 2025년 3월 28일 시애틀 스타트업 서밋에서 발표된 Emissary의 데모 스크립트를 요약하고, 플랫폼에 대한 상세한 분석을 제공합니다. 발표 내용과 웹사이트 정보를 기반으로, Emissary의 기능, 사용 사례, 시장 위치 등을 다룹니다.
발표 스크립트 요약
스크립트는 Emissary의 데모 발표 내용으로, 플랫폼이 AI 모델 개발의 전 과정을 지원한다고 설명합니다. 발표자는 단순히 구조적 요소뿐 아니라 직관적 측면도 중요하다고 강조하며, 사용자 맞춤형 손실 함수와 출력 헤드를 통해 특정 작업에 최적화된 모델을 만들 수 있다고 언급했습니다. 데모에서는 프로젝트 생성, 데이터 업로드, 훈련 작업 설정, 모델 평가, 배포, 그리고 생산 환경에서의 모니터링 및 재훈련 과정을 보여주었습니다. 플랫폼은 GPU 인스턴스 관리, 모델 체크포인트 저장, 테스트 실행 등을 자동화하여 사용자가 모델 개발에 집중할 수 있도록 설계되었습니다.
Emissary 플랫폼의 상세 기능
Emissary는 AI 모델의 전 생애 주기를 관리하는 플랫폼으로, 다음과 같은 주요 기능을 제공합니다:
프로젝트 관리: 사용자는 "서비스"라는 개념으로 프로젝트를 생성할 수 있으며, 이는 AI 시스템을 위한 모든 작업을 포함합니다.
데이터 업로드 및 가이드라인: 플랫폼은 최대 1GB까지 UI에서 데이터를 업로드할 수 있으며, API를 통해 더 많은 데이터를 처리할 수 있습니다. 데이터 형식 가이드라인을 제공하여 잘못된 형식 업로드를 방지합니다.
훈련 작업 커스터마이징: 사용자는 기본 모델, 훈련 데이터셋, 작업 유형, 하이퍼파라미터를 지정할 수 있습니다. 또한, 훈련 스크립트를 수정하거나 Python 스크립트를 통해 평가 함수를 설정할 수 있습니다.
자동화된 인프라 관리: 훈련 시작 시 GPU 인스턴스를 자동으로 생성하고, 훈련 스크립트와 데이터셋을 로드하며, 모델 체크포인트를 저장하고 테스트를 실행합니다.
모델 평가 및 배포: 훈련 완료 후 로그와 테스트 메트릭을 확인할 수 있으며, 모델을 다운로드하거나 직접 배포할 수 있습니다. 배포를 위해 여러 언어(4개 이상)로 코드 스니펫을 제공하며, 지속적으로 언어를 확장하고 있습니다.
생산 환경 모니터링 및 재훈련: 생산 환경에서 트래픽을 모니터링하고, 이 데이터를 기반으로 새로운 데이터셋을 생성하여 모델을 재훈련할 수 있습니다. 이는 모델이 최신 상태를 유지하고 성능을 개선하는 데 도움을 줍니다.
사용 사례
Emissary는 연구 및 개발 팀, 기업, 개인 개발자 등 다양한 사용자에게 적합합니다. 예를 들어:
연구 팀은 새로운 아이디어를 실험하고 빠르게 프로토타입을 만들 수 있습니다.
기업은 특정 비즈니스 요구사항에 맞춘 맞춤형 AI 솔루션을 구축할 수 있습니다.
개인 개발자는 복잡한 인프라 관리 없이 개인화된 AI 애플리케이션을 개발할 수 있습니다.
시장 위치 및 경쟁
Emissary는 AI 모델 훈련 및 배포 시장에서 경쟁사와 비교될 수 있습니다. 경쟁사로는 Hugging Face, Weights & Biases, MLflow 등이 있으며, 이 시장은 2025년까지 빠르게 성장할 것으로 예상됩니다. Emissary의 강점은 사용자 맞춤형 손실 함수와 출력 헤드 제공, 직관적인 인터페이스, 그리고 생산 환경에서의 지속적인 유지보수 지원입니다.
예상치 못한 세부 사항
발표자는 모델 개발의 직관적 측면을 강조하며, 단순히 구조적 요소뿐 아니라 창의적 접근도 중요하다고 언급했습니다. 이는 일반적으로 기술 중심으로 설명되는 AI 플랫폼에서 드문 접근으로, 사용자의 창의성을 자극할 수 있는 점이 흥미롭습니다.
상세 비교 표
항목
설명
회사 이름
Emissary
주요 제품
AI 모델 빌드, 훈련, 배포 플랫폼
주요 기능
사용자 맞춤형 손실 함수, 출력 헤드, 직관적 인터페이스, 자동화 관리
대상 사용자
연구 팀, 기업, 개인 개발자
특별 적용 사례
특정 작업에 최적화된 모델 개발, 생산 환경 모니터링
배포 옵션
오프프레미스 또는 클라우드 서비스를 통한 유연성
이 표는 발표 내용과 웹사이트 정보를 기반으로 Emissary의 주요 특징을 요약한 것입니다.
결론
Emissary는 AI 모델 개발을 단순화하고, 사용자 맞춤형 최적화를 통해 특정 작업에 최적화된 모델을 구축할 수 있는 플랫폼입니다. 직관적인 인터페이스와 자동화된 관리 기능을 통해 개발자가 모델 개발에 집중할 수 있으며, 생산 환경에서의 모니터링과 재훈련 기능을 통해 지속적인 성능 개선을 지원합니다.
Pixeltable AI는 2025년 3월 28일 시애틀 스타트업 서밋에서 Pixelagent라는 AI 에이전트 프레임워크를 소개했습니다.
Pixelagent는 Pixeltable의 AI 데이터 인프라를 기반으로 하여 데이터 오케스트레이션, 지속성, 멀티모달 지원을 자동으로 처리하며, 사용자가 비즈니스와 혁신에 집중할 수 있도록 돕습니다.
사용자는 AI 클래스를 정의하고 비디오, 오디오, 텍스트 등 다양한 데이터 유형을 처리하며, 내장된 메모리 관리를 통해 데이터 검색 및 저장 방식을 선택할 수 있습니다.
예상치 못한 점: 발표자가 데이터 관리의 기술적 세부 사항보다는 사용자가 창의적 접근에 집중할 수 있도록 강조한 점이 흥미롭습니다.
Pixeltable과 Pixelagent 개요
Pixeltable은 멀티모달 데이터(텍스트, 이미지, 비디오, 오디오 등)를 관리하는 선언적, 점진적 접근 방식을 제공하는 AI 데이터 인프라입니다. Pixelagent는 이 기반 위에 구축된 AI 에이전트 프레임워크로, 데이터 관리의 복잡성을 줄이고 에이전트 로직 개발에 집중할 수 있도록 설계되었습니다.
주요 기능
Pixeltable: 데이터 저장, 버전 관리, 변환, 인덱싱, 오케스트레이션을 통합적으로 처리하며, 개발자가 데이터 관리에 신경 쓰지 않고 AI 애플리케이션 개발에 집중할 수 있습니다.
Pixelagent: 데이터 우선 접근 방식을 채택하여 에이전트가 텍스트, 이미지, 비디오 등을 자연스럽게 처리할 수 있도록 지원하며, LLM(대규모 언어 모델) 프로토콜과 도구 통합을 쉽게 만듭니다.
사용 사례
Pixeltable은 RAG 시스템, 컴퓨터 비전 파이프라인, 멀티모달 AI 애플리케이션, 생산 LLM 서비스 등 다양한 용도로 사용됩니다. Pixelagent는 고객 서비스 봇, 개인 비서, 복잡한 작업 수행 에이전트 등에 적합합니다.
보고서: Pixeltable AI 및 Pixelagent에 대한 상세 분석
이 보고서는 2025년 3월 28일 시애틀 스타트업 서밋에서 발표된 Pixeltable AI의 데모 스크립트를 요약하고, Pixeltable과 Pixelagent 제품에 대한 상세한 분석을 제공합니다. 발표 내용과 웹 검색을 통해 수집된 정보를 바탕으로, 회사의 역할, 제품 기능, 사용 사례, 시장 위치 등을 다룹니다.
발표 스크립트 요약
스크립트는 Pixeltable AI의 데모 발표 내용으로, Pixelagent라는 데이터 우선 AI 에이전트 프레임워크를 소개합니다. Pixelagent는 Pixeltable의 AI 데이터 인프라를 기반으로 하여 데이터 오케스트레이션, 지속성, 멀티모달 지원을 자동으로 처리하며, 사용자가 비즈니스와 혁신에 집중할 수 있도록 돕습니다. 발표자는 사용자가 AI 클래스를 정의하고 비디오, 오디오, 텍스트 등 다양한 데이터 유형을 처리하며, 내장된 메모리 관리를 통해 데이터 검색 및 저장 방식을 선택할 수 있다고 설명했습니다. 또한, 데이터와 오케스트레이션을 통합하여 관리의 복잡성을 줄인다고 강조했습니다. 데모 중 팀원의 음성으로 Pixelagent를 "데이터 우선 프레임워크"로 소개하며, Pixeltable이 데이터 오케스트레이션과 저장을 자동으로 처리한다고 언급했습니다.
Pixeltable의 상세 설명
Pixeltable은 오픈소스 AI 데이터 인프라로, 멀티모달 워크로드를 위한 선언적, 점진적 접근 방식을 제공합니다. 이는 데이터 저장, 버전 관리, 변환, 인덱싱, 오케스트레이션을 통합적으로 처리하여 개발자가 데이터 관리에 신경 쓰지 않고 AI 애플리케이션 개발에 집중할 수 있도록 설계되었습니다.
핵심 기능:
사용 사례: RAG 시스템, 컴퓨터 비전 파이프라인, 멀티모달 AI 애플리케이션, 생산 LLM 서비스 등에 적합합니다.
기술적 세부 사항: Pixeltable은 Python 라이브러리로, 테이블 생성, 쿼리, 계산된 열(computed columns)을 지원합니다. 예를 들어, 영화 테이블을 생성하여 이름, 수익, 예산 열을 정의하고, 수익에서 예산을 뺀 이익을 계산된 열로 설정할 수 있습니다. 이미지 열에 대해 CLIP 모델을 사용하여 임베딩을 추출하고 유사성 검색을 수행할 수 있습니다.
Pixelagent의 상세 설명
Pixelagent는 Pixeltable 위에 구축된 AI 에이전트 프레임워크로, 데이터 관리의 복잡성을 줄이고 에이전트 로직 개발에 집중할 수 있도록 설계되었습니다. 이는 데이터 우선 접근 방식을 채택하여 에이전트가 텍스트, 이미지, 비디오 등을 자연스럽게 처리할 수 있도록 지원하며, LLM 프로토콜과 도구 통합을 쉽게 만듭니다.
핵심 기능:
작동 방식:
사용 사례: 고객 서비스 봇, 개인 비서, 복잡한 작업 수행 에이전트 등에 적합하며, 특히 대규모 데이터 처리와 멀티모달 상호작용이 필요한 경우 유용합니다.
시장 위치 및 경쟁
Pixeltable과 Pixelagent는 AI 데이터 관리 및 에이전트 개발 시장에서 경쟁사와 비교될 수 있습니다. 경쟁사로는 Hugging Face, Weights & Biases, MLflow 등이 있으며, 이 시장은 2025년까지 빠르게 성장할 것으로 예상됩니다. Pixeltable의 강점은 멀티모달 데이터 처리와 점진적 업데이트 지원, Pixelagent의 강점은 데이터 우선 접근과 에이전트 개발의 단순화입니다.
예상치 못한 세부 사항
발표자는 데이터 관리의 기술적 세부 사항보다는 사용자가 창의적 접근에 집중할 수 있도록 강조했습니다. 이는 일반적으로 기술 중심으로 설명되는 AI 플랫폼에서 드문 접근으로, 사용자의 혁신을 자극할 가능성이 높습니다.
상세 비교 표
항목
Pixeltable
Pixelagent
주요 역할
AI 데이터 인프라, 멀티모달 데이터 관리
AI 에이전트 프레임워크, 데이터 우선 접근
핵심 기능
선언적 인터페이스, 점진적 업데이트, 버전 관리
멀티모달 지원, LLM 프로토콜, 도구 통합, 메모리 관리
대상 사용자
데이터 과학자, ML 엔지니어
AI 에이전트 개발자, 고객 서비스 팀
사용 사례
RAG 시스템, 컴퓨터 비전, 멀티모달 AI 애플리케이션
고객 서비스 봇, 개인 비서, 복잡한 작업 에이전트
통합
OpenAI, Hugging Face, YOLOX 등 AI 모델과 통합
Pixeltable 기반, LLM 및 도구와 통합
이 표는 Pixeltable과 Pixelagent의 주요 특징을 비교한 것으로, 발표 내용과 웹사이트 정보를 기반으로 작성되었습니다.
결론
Pixeltable AI는 Pixeltable과 Pixelagent를 통해 AI 데이터 관리와 에이전트 개발을 단순화하는 종합 솔루션을 제공합니다. Pixeltable은 멀티모달 데이터 처리와 효율적인 관리로, Pixelagent는 에이전트 로직 개발에 집중할 수 있는 프레임워크로, 함께 AI 애플리케이션 개발의 복잡성을 줄이고 혁신을 촉진합니다.
아래는 Seattle Startup Summit 2025 행사에서 발표된 Statsig AI 데모 스크립트의 핵심 요약과, 해당 제품에 대한 상세 설명입니다.
1. 발표 스크립트 요약
발표 분위기 및 컨셉
발표자는 옛날 Steve Ballmer의 Windows 1.0 홍보 영상을 패러디한 유머러스한 영상을 먼저 보여주며, Statsig AI 플랫폼의 주요 기능을 설명함.
“이 강력한 실험 플랫폼에 들어있는 다양한 기능이 얼마나 가치를 지닐 것 같냐”고 물은 뒤, 여러 고급 기능들을 빠르게 나열하고 “지금 바로 시작은 무료이며 사용량(event) 기반 과금”이라는 메시지를 전달함.
“Dark Mode 지원”, “Nebraska에서도 동일한 혜택” 등의 농담을 포함해, 가볍고 경쾌한 스포핑 형식으로 제품의 특징을 소개.
핵심 기능 나열
Feature Flag(기능 토글) 통합
AB 테스트 및 실험(Experimentation)
실시간(Real-time) 지표 분석
자동화된 Holdout 그룹
전체 데이터 웨어하우스(Data Warehouse) 연동
Product Analytics, 사용자 행동 분석 및 지표 알림(Metric Alerts)
진단 패널(Diagnostics Panel) 및 팀 협업(Team Collaboration)
어두운 테마(Dark Mode) 지원
가격 정책
“무료로 시작 가능, 실제 사용한 이벤트 수에 대해서만 지불” 방식으로, 초기 스타트업도 부담 없이 접근할 수 있다고 강조.
추가 설명
Statsig를 통해 “단일 플랫폼에서 페이즈 롤아웃, 실험, 사용자 세션 리플레이 등 전 과정”을 관리할 수 있다고 함.
스타트업 지원 프로그램으로 “5만 달러($50,000) 상당의 크레딧”을 제공(실질적으로는 이메일만 등록하면 누구나 해당 크레딧을 받을 수 있다고 언급).
QR 코드를 통해 신청하거나, 데모를 예약하면 간단히 Statsig AI를 체험해볼 수 있다고 발표.
2. Statsig AI 제품 상세 설명
Statsig AI는 제품 실험(Experimentation)과 기능 제어(Feature Flag)부터 분석(Product Analytics), 사용자 행동 추적, 세션 리플레이(Session Replay)까지 다양한 기능을 한데 모은 통합 플랫폼입니다. 기존에 여러 도구로 분산 처리하던 작업을 하나로 묶어, 개발팀이 신속하게 데이터를 기반으로 의사결정을 내릴 수 있도록 돕습니다. 주요 특징은 다음과 같습니다.
2.1 통합 Feature Flag & Experimentation
Feature Flag(기능 토글) 관리
운영 중인 애플리케이션에서 특정 기능을 특정 사용자 그룹이나 트래픽 일부에게만 배포할 수 있음.
실시간으로 롤아웃(rollout) 비율 조정, 긴급 롤백, 사용자 조건 설정 등을 빠르게 적용 가능.
각 플래그가 앱의 KPI에 미치는 영향을 곧바로 확인(실험/분석 기능 연동).
AB 테스트 및 실험
코드 수정 없이도 다양한 실험 그룹(예: 통제 그룹 vs. 실험 그룹)을 설정해 신기능이나 UI 변화를 테스트.
Statsig AI는 실험 결과를 자동으로 분석해 **특정 지표(전환율, 클릭률, 잔존율 등)**에 유의미한 변화가 있는지 알려줌.
Holdout 그룹(테스트 기간 내내 기능을 받지 않는 그룹)도 자동 생성해, 정확한 실험 데이터 확보 가능.
2.2 실시간 분석 & 자동화된 모니터링
Real-time Metrics
사용자 이벤트(클릭, 페이지뷰, 구매 등)를 실시간으로 수집·분석하여, 론칭 직후 발생할 수 있는 문제를 즉각 파악 가능.
새 기능을 배포한 뒤 트래픽 급증이나 오류율 상승이 감지되면, 대시보드나 알림(Alerts)을 통해 신속히 대응.
자동화된 Holdouts / Guardrails
Statsig AI는 특정 사용자 그룹을 “Holdout”으로 설정해, 실험 대상에서 제외하거나 기초 데이터를 계속 수집하는 역할만 하도록 자동 관리.
Guardrails 기능을 통해 성과 지표가 심각하게 악화되는 경우, 베타 기능의 자동 롤백 등 보호장치를 설정할 수도 있음.
2.3 Product Analytics 및 풀 데이터 웨어하우스 연동
Product Analytics
실험 결과뿐 아니라, 일상적인 사용자 행동 패턴도 대시보드에서 시각화.
사용자 세그먼트별 전환 분석, 유저 라이프사이클 파악 등을 지원해, 제품 성장 전략 수립에 활용 가능.
Data Warehouse Integration
Statsig AI에 쌓인 이벤트 데이터 및 실험 결과를 Snowflake, BigQuery 등 기존 데이터 웨어하우스와 쉽게 연동해 단일 분석 뷰 구축이 용이.
사내 BI 도구나 기타 머신러닝 파이프라인에도 활용 가능하도록 ETL(Extract-Transform-Load) 과정을 간소화.
2.4 Session Replay & Diagnostics
Session Replay
실제 사용자가 앱을 어떻게 이용하는지, 마치 동영상처럼 재생하여 확인할 수 있는 기능.
A/B 테스트 중인 기능을 접한 사용자가 어디서 이탈했는지, 어떤 UI에서 혼동을 겪었는지 세밀하게 분석 가능.
Diagnostics Panel
실험 운영 중 발생하는 오류나, 예기치 않은 사용자 행동(버그 리포트, 비정상적 이탈률 등)을 실시간 진단.
Product Analytics나 세션 리플레이와 연동해, 문제 해결 시간을 대폭 단축.
2.5 사용 및 가격 정책
무료 시작 & 사용량 기반 과금
Statsig AI는 초기 스타트업이 부담 없이 시작할 수 있도록 무료 플랜을 제공.
이벤트(사용자 행동) 발생 건수 또는 트래픽 양에 따라 과금되는 구조이므로, 규모가 커지기 전까지는 거의 무료로 이용 가능.
대규모 사용자 기반을 가진 기업도, 이벤트 지표를 기반으로 한 “유연한 요금제”를 통해 필요 리소스만큼만 지불하게 됨.
스타트업 지원 프로그램
발표 내용에 따르면, 스타트업이라면 별도 심사 과정 없이 5만 달러($50,000) 크레딧을 제공받을 수 있다고 함.
Statsig AI는 기존에 개별 도구로 운영되던 Feature Flagging, A/B Testing, Product Analytics, Session Replay 등을 단일 플랫폼에서 제공한다는 점이 가장 큰 이점입니다. 예컨대 LaunchDarkly나 Optimizely 같은 솔루션이 부분적으로 실험 또는 플래그 관리에 집중한다면, Statsig는 종합형 제품 분석·실험 플랫폼으로서 모든 단계를 한 번에 처리해줍니다.
또한 무료 시작과 유연한 과금 체계 덕분에, 대규모로 확장하기 전부터 Statsig AI를 시도해볼 수 있다는 것이 스타트업 관점에서 큰 장점입니다. 개발팀은 간단히 SDK를 설치하고 이벤트 트래킹만 연결해두면, 실험 환경 구축부터 대시보드 분석까지 한 번에 해결할 수 있습니다.
요약
Statsig AI는 다음과 같은 핵심 가치를 제공합니다:
One-Stop Experimentation & Analytics: 기능 토글, 실험(A/B 테스트), 세션 리플레이, 사용자 행동 분석 등 제품 관리에 필요한 모든 기능을 한곳에 모음.
실시간 모니터링 및 자동 롤백: 실시간 지표 분석과 자동 보호장치(Guardrails)로, 새 기능 배포 시 품질을 안정적으로 유지.
전체 데이터 웨어하우스 연동: 사내 BI·데이터 분석 도구와 손쉽게 통합해, 단일 소스로 제품 지표를 파악 가능.
합리적인 사용량 기반 과금: 초기에는 무료로 시작할 수 있고, 규모가 커진 후에 필요한 만큼만 비용 지불.
풍부한 스타트업 지원: 신청만 하면 5만 달러 상당 크레딧 제공 등, 빠른 실험과 반복(Iteration)을 원하는 성장 단계 스타트업에게 매력적인 옵션.
Seattle Startup Summit 2025 발표에서 강조된 바와 같이, Statsig AI를 이용하면 “한 눈에 보이는 대시보드, 즉각적인 기능 배포 및 조정, 세션 레코딩을 통한 사용자 이해”가 가능해집니다. 새로운 기능 또는 제품 아이디어를 데이터 기반으로 빠르게 검증하고, 배포 후 결과를 실시간 추적함으로써, 제품 성공 가능성을 높이고 사용자 경험도 향상시킬 수 있습니다.
필요하다면 공식 사이트에서 데모를 예약하거나 바로 가입해 체험해 보시고, 스타트업 크레딧 프로그램도 놓치지 마시길 추천드립니다.
로컬 DuckDB처럼 가볍게 사용할 수 있으면서도 클라우드 상에서 대용량 데이터를 처리할 수 있도록 설계.
“멀티플레이어”를 표방해, 여러 사용자가 협업 가능하도록 만들어진 서비스.
데모 시연
DuckDB 설치 & MotherDuck 연결:
사용자(발표자)는 로컬에 DuckDB를 설치하고, 명령줄에서 md: 프로토콜을 통해 MotherDuck에 접속한다.
추가 복잡한 설정 없이 바로 MotherDuck 클라우드 인스턴스에 연결 가능.
Postgres vs. MotherDuck 성능 비교:
약 1,500만(15 million) 행 정도의 해커 뉴스(Hacker News) 데이터셋을 두고, Postgres에서 쿼리 시 2분 이상 걸리던 작업이 MotherDuck에서는 데이터 한번 적재(약 1분) 후 거의 즉시(Instant) 결과를 반환.
COUNT(*) 같은 단순 연산조차 Postgres에선 90초 걸리지만, MotherDuck에서는 즉시 처리됨.
인덱스, 확장(Extension) 세팅 없이도 고성능 쿼리 수행이 가능함을 강조.
벤치마크(ClickBench) 결과:
최적화된 Postgres 대비, 동일 환경에서 30배(30x) 이상 빠른 성능을 보여줌.
DuckDB가 제공하는 빠른 컬럼 기반 처리와 MotherDuck의 클라우드 인프라가 결합해, 대규모 데이터에서도 강력한 속도를 낸다는 점을 시연.
핵심 요점
MotherDuck을 사용하면 Postgres에서 속도 문제가 발생하던 분석 쿼리를 훨씬 더 빠르고 효율적으로 처리할 수 있음.
로컬 DuckDB와 매우 유사한 사용 방식(간단한 CLI 명령)으로도 클라우드 데이터 웨어하우스 기능을 활용 가능.
필요 시 여러 사람이 동시에 같은 데이터에 접근하고, 분석 결과를 공유하거나 협업하기 용이.
2. MotherDuck 제품 상세 설명
MotherDuck은 DuckDB의 장점을 클라우드 환경에 확장한, 새로운 형태의 ‘서버리스’ 데이터 웨어하우스입니다. 개발팀이나 데이터 팀이 기존에 Postgres나 다른 전통적 DB/웨어하우스에서 겪던 성능 병목을 해소하고, 손쉽게 대규모 데이터 분석·처리를 구현하도록 돕습니다.
2.1 DuckDB를 기반으로 한 클라우드 데이터 웨어하우스
DuckDB란?
오픈소스 컬럼 지향 DB로, “SQLite for Analytics”라 불릴 정도로 경량·고속성을 자랑.
별도 서버 구축이 필요 없는 임베디드(embedded) DB 방식이지만, 대화형 분석 쿼리에 뛰어난 성능을 제공.
MotherDuck은 이 DuckDB 엔진을 원격 클라우드 환경에서 확장 운용하도록 구성.
로컬 + 클라우드 하이브리드 모델
DuckDB 로컬 인스턴스와 MotherDuck 클라우드를 동시에 연결해 쓸 수 있음.
로컬에서 쿼리를 작성하거나, 클라우드에 데이터를 올려 공동 분석하는 등 유연한 배포 구조를 지원.
대용량 쿼리는 클라우드에서 빠르게 실행하고, 필요 시 오프라인 환경에서도 동일한 DuckDB 인터페이스 사용 가능.
2.2 성능 특징
빠른 쿼리 속도
스크립트 시연에서처럼, 몇 백만~천만 건 이상의 데이터셋을 거의 실시간에 가깝게 쿼리.
컬럼 지향성, 벡터화 엔진 등을 기반으로 연산 속도를 크게 높여, 전통적 RDBMS(Postgres 등) 대비 수십 배 빠른 결과.
초기 적재(Load) 과정 후에는 반복 쿼리에 대한 응답이 매우 빠름.
Serverless & Auto Scaling
내부 클라우드 인프라가 탄력적으로 확장되므로, 사용자는 서버 설정·튜닝 없이 높은 성능을 확보.
따라서 DBA(데이터베이스 관리자)나 인프라 엔지니어의 부담이 줄어들고, 애플리케이션 측면에 집중 가능.
2.3 사용 편의성
간단한 CLI 연결
로컬 DuckDB 설치 후, 명령줄에서 md:... 형식으로 MotherDuck 인스턴스에 접속하면, 로컬 DB 다루듯 SQL 쿼리 수행 가능.
별도 복잡한 인증·프로비저닝 없이도 직관적으로 클라우드 웨어하우스를 활용할 수 있음.
멀티플레이어 협업
여러 사용자가 동시에 동일 MotherDuck 인스턴스에 접속해, 동일한 데이터셋을 공유/편집/분석.
SQL 에디터 공유나 결과 공유 등, 협업 기반으로 대화형 데이터 분석을 수행하기 쉽도록 디자인.
2.4 주요 활용 사례
대화형 분석 쿼리:
로그, 이벤트, 사용자 행동 데이터 등 중간 규모 이상(수백만 행~수억 행)의 분석을 실시간 응답으로 확인해야 할 때.
BI 대시보드, 임시 탐색(Ad-hoc Query) 시에 빠른 응답이 필요한 경우.
Postgres 대체 또는 보완:
애플리케이션 운영 DB(Postgres 등)의 READ 성능이나 복잡한 조인(Join)이 병목이 될 때, MotherDuck을 OLAP(분석) 전용으로 분리하여 부하를 줄임.
데이터를 MotherDuck으로 정기적으로 적재(ETL/ELT)한 뒤, 분석 작업을 전담하게 함으로써 기존 DB의 부담 최소화.
데이터 과학/머신러닝 사전 처리:
모델 학습에 필요한 대규모 데이터 전처리(집계, 조인 등) 시, 로컬 환경+DuckDB만으로 부족할 때 클라우드 확장으로 빠른 연산.
이후 결과를 파일 혹은 Python/R 환경으로 가져와 모델에 투입 가능.
2.5 가격 정책 및 장점
초기부터 클라우드 네이티브
서버 세팅이나 스케일링 정책을 직접 관리할 필요가 없으므로, 데이터 팀이 빠르게 시작하기 좋음.
별도의 쿼리 엔진, 데이터 웨어하우스, ETL 파이프라인 등을 각각 운영하던 부담을 줄이고, 하나의 솔루션으로 통합 가능.
용도에 따라 DuckDB 로컬과 연계해 비용 효율적인 분석 환경 구현.
정리
MotherDuck은 DuckDB의 고성능 분석 엔진을 그대로 클라우드로 확장한 “Serverless 데이터 웨어하우스” 솔루션입니다.
Postgres 같은 전통적 DB에서 대규모 데이터 쿼리 시 발생하는 성능 병목을 해결하려는 경우에 큰 이점.
간편한 CLI 연결과 멀티플레이어 협업을 통해, 개발자와 데이터 팀이 대화형 쿼리와 실시간 분석을 손쉽게 수행.
스크립트 데모에서도 확인했듯, 수천만 건 이상의 데이터를 거의 즉시 처리하는 능력과, 간소한 운영 방식을 결합해 제품 개발 단계부터 부담 없이 활용할 수 있음.
DuckDB가 로컬 분석에 편리했다면, MotherDuck은 클라우드 환경에서 더 큰 스케일과 협업성을 확보하도록 고안되었기에, “최소한의 관리로 대용량 분석”을 원하는 기업이나 팀에게 매력적인 선택이 될 것입니다. 자세한 요금 체계와 기술 문서는 공식 웹사이트(https://motherduck.com/)에서 확인 가능합니다.
Daytona는 AI 에이전트가 코드를 실행하거나, **독립된 작업 환경(sandbox)**을 즉시 스핀업(spin up)하여 안전하게 테스트할 수 있도록 하는 인프라 플랫폼.
“서버리스처럼 빠른 속도”로 VM 또는 컨테이너 같은 격리 환경을 초단위 이하(약 100ms)에 준비하여, AI 에이전트가 다양한 개발·실행 작업을 즉시 처리 가능.
Open Hands / Claude 예시
Open Hands: 오픈소스 버전의 ‘코딩 에이전트’(예: ChatGPT Code Interpreter 유사)로, Daytona가 제공하는 인프라에 코드를 배포·실행 가능.
Claude: 일반적으로는 코드를 생성만 하고, 사용자가 직접 실행해야 하는데, Daytona의 mCP 서버(Multi-Container Playground Server)와 연동하면 Claude가 스스로 코드를 실행하고 결과를 확인해, 사용자에게 그대로 알려줄 수 있음.
Daytona 데모 핵심 포인트
데모 화면에서 Claude에 “코드를 작성하고 결과를 보여줘”라고 지시하면, Claude가 Daytona에 샌드박스를 스핀업하여, 코드 실행을 실제로 수행하고 결과까지 반환.
샌드박스 생성 속도: 실제로는 100ms 이내로 매우 빠르며, 사용 환경(네트워크 등)에 따라 약간의 지연이 있을 수 있음.
이후 Claude(에이전트)가 샌드박스에 패키지 설치, 실행, 파일 생성/수정 등 모든 작업을 자동화해 종합적인 개발·테스트 시나리오를 구현.
기능 요약
상태 저장(archiving) & 스냅샷: 스핀업된 머신(샌드박스)은 필요 시 상태를 저장/복원하거나, 여러 버전을 병렬로 생성해 비교 가능.
Daytona SDK: 파이썬 코드나 CLI(명령줄)로 샌드박스 작업을 자동화하기 위한 API 제공.
파일 시스템, 세션, 터미널 등: AI 에이전트가 직접 명령어를 전송하거나, 생성/수정/삭제할 파일을 지정해, 시나리오 전반을 프로그래밍적으로 제어 가능.
결론
Daytona는 AI 코딩 에이전트가 “실제 코드 실행이 가능한 격리 환경”을 초고속으로 제공하는 인프라 솔루션.
현장에서 시연된 데모에는 Claude, Open Hands 등 코딩 에이전트가 Daytona를 통해 코드를 작성·설치·실행·테스트 전 과정을 자동화하는 모습을 보여줌.
누구나 부스에서 무료 크레딧을 받아 체험 가능.
2. Daytona 제품 상세 설명
2.1 개념 및 목표
AI 에이전트 특화 인프라
Daytona는 코드 실행이 필요한 AI/LLM 에이전트에게 **격리된 환경(sandbox)**을 즉시 생성·할당하고, 결과를 관리해주는 클라우드 인프라.
기존 DevOps/VM 환경 대비 수십~수백 배 빠른 스핀업 시간을 추구해, 실시간 AI “코드 해석” 시나리오도 지연 없이 처리.
보안 & 격리
샌드박스는 각각 독립된 환경으로, 보안과 안정성이 보장되며, 에이전트가 설치·실행하는 패키지나 코드를 다른 사용자의 워크로드와 분리.
개인정보, 비즈니스 민감 데이터 등을 안전하게 테스트할 수 있도록 설계.
2.2 핵심 기능
초고속 샌드박스 스핀업
평균 100ms 내로 가상화된 컨테이너 혹은 경량 VM을 생성.
AI 에이전트가 “코드를 실행하겠다”고 요청하면, Daytona가 즉시 해당 환경을 준비하여 즉각적인 실행이 가능.
상태 관리 (Archiving & Snapshots)
샌드박스 실행 중 일정 상태를 스냅샷으로 저장해, 재시작 시 해당 시점부터 이어갈 수 있음.
여러 변형(Branch)을 병렬로 생성해, 코드 변화를 시험하거나 다양한 실험을 동시 진행 가능.
Daytona SDK & API
Python SDK: 개발자가 코드에서 직접 Daytona 인프라와 상호 작용하며, 샌드박스 생성/삭제, 파일 읽기/쓰기, 명령 실행 등을 API 호출로 처리.
REST/CLI 인터페이스: 원하는 언어나 스크립트 환경에서 Daytona 기능을 제어 가능.
에이전트 친화적 툴링
Session/Terminal API: 명령어를 문자열로 전달하면, 샌드박스 내부에서 실행 후 결과를 JSON 형태로 반환받을 수 있음(에이전트가 파싱하기 쉽게).
파일시스템 API: 파일 작성/삭제/수정 등 작업을 간단한 HTTP 요청으로 수행 → 에이전트가 로컬 파일처럼 다룰 수 있음.
Cost & Resource 효율성
필요할 때만 샌드박스(환경)를 생성하고, 작업 완료 후 자동으로 종료 → 클라우드 자원 낭비를 최소화.
사용량 기반 과금 또는 일정 구독 모델로 운영될 수 있음.
2.3 장점 및 차별화
Real-time 코드 실행
GitHub CoPilot, ChatGPT Code Interpreter, Claude 코딩 모드 등 “코드를 즉시 실행”해 결과를 확인하는 시나리오에 특화.
자체 인프라를 구축하면 복잡하고 느린 VM 관리가 필요하지만, Daytona는 이를 고성능으로 추상화.
AI 에이전트에게 최적화된 API
일반 Cloud/VM 관리 툴은 사람이 직접 SSH 접속해 명령어 실행 등을 가정.
Daytona는 HTTP/SDK 기반으로 파일·세션을 조작하도록 설계해, 에이전트가 파싱하기 편리함.
Sandbox 스냅샷 및 병렬 분기
실험 중간에 상태를 저장하고, 여러 가지 시나리오를 동시에 시도해 본 후 결과를 비교.
AI가 “이전 상태에서 다시 시도”하는 작업을 쉽게 구현.
보안/격리 환경
각 샌드박스가 독립적으로 실행되며, 접근 권한과 네트워크를 제한할 수 있어 안전한 코드 실행이 가능.
악성 코드나 해킹 공격을 방지하고, 클라우드 전체 안정성을 유지.
빠른 프로비저닝
100ms대의 스핀업 속도는 일반 VM 대비 매우 빠르며, 성능을 유지하면서도 즉각 응답을 필요로 하는 AI 에이전트 워크플로에 이상적.
2.4 활용 사례
AI 코딩 에이전트: ChatGPT Code Interpreter나 Claude처럼, AI가 사용자 요청에 따라 코드를 작성·실행·테스트·결과제공하는 상황에서 Daytona가 인프라를 제공.
CI/CD 파이프라인: 빌드/테스트 작업을 샌드박스로 분리해 병렬 수행. 빠른 스냅샷과 병렬화를 통해 개발 효율을 높임.
보안 테스트: 샌드박스 환경에서 안전하게 취약점 분석, 모의 해킹 등을 수행해, 메인 시스템을 보호.
교육/워크샵: 즉시 생성되는 실습 환경으로, 대규모 참가자가 코드 실습을 해도 충돌이나 리소스 부족 없이 안정적으로 진행.
Storytell은 엔터프라이즈 환경의 비정형(unstructured) 데이터를 AI로 쉽게 검색, 분석, 활용할 수 있게 만드는 플랫폼.
기업 내 데이터의 80% 이상은 데이터베이스나 정형 테이블이 아닌 문서, 보고서, 프레젠테이션, CSV, PDF 등으로 “데이터 레이크(혹은 ‘data swamp’)” 형태에 흩어져 있음.
Storytell이 이 비정형 데이터들을 LLM이 다룰 수 있는 형태로 통합하여, 단일 창구에서 질의(쿼리)하고 답변을 받도록 한다는 아이디어.
데모 시연 흐름
예시 1: “분석가가 2024년 매출 보고서(프레젠테이션 문서)와 회사의 예산(CSV 파일)을 함께 조회해, 회사의 수익성이 어떠한지 묻는 질문”을 던진다면, Storytell은 이 서로 다른 형식의 문서를 하나의 질의로 처리하여 답변을 제공함.
예시 2: “고객 지원팀이 NPS 데이터(CSV)와 사용자 피드백(문서 형식)을 함께 조합해서, 어떤 이슈가 가장 큰 영향을 주는지”를 파악.
Storytell은 문서별 “청크(chunk)”를 생성, 이를 LLM 친화적으로 변환한 뒤, 자체 “LLM Router” 기술로 대용량 데이터를 연결해 대화형 질의에 응답.
사용자는 한 단계 깊이 있는 후속 질문을 하거나, 바로 원문에 링크되어 **출처(Reference)**를 확인함으로써 결과를 신뢰할 수 있음.
UI/UX 특징
간단한 검색창 또는 “챗GPT 스타일” 질의 화면에서, 엔터프라이즈 내 여러 문서/CSV/PDF 등 비정형 소스를 동시에 조회해 종합적 답변을 생성.
결과 내 상세 링크나 참조 원문을 직접 열어볼 수 있어, “신뢰성”(거짓 답변 방지)을 높임.
기업 규모가 작아도(110명) 혹은 중간(10100명), 커다란 기업(100명 이상)도 활용 가능.
2. Storytell 제품 상세 설명
2.1 어떤 문제를 해결하나?
비정형 데이터가 방대한 상황
대다수 기업에서는 구조화된 DB 외에도, PowerPoint, PDF, Word, CSV, 노트 문서 등 방대한 비정형 데이터가 산재.
이 파일들을 찾아 일일이 분석하기 어려우며, 다른 부서/포맷 간 호환이 잘 안 됨.
LLM을 활용해 이질적 포맷을 단일 검색/분석
Storytell은 “LLM Router” 기술로, 각각의 문서를 텍스트 청크로 변환하고, 질의 요청 시 필요한 문서를 선택해 무제한 컨텍스트처럼 처리.
그 결과, 사용자는 “CSV 속 재무데이터 + PPT 문서” 결합 정보를 한 번에 검색하고 자연어 답변을 얻을 수 있음.
2.2 주요 기능
문서/파일 수집 & 청크화
PowerPoint, Word, PDF, CSV, 이미지(가능하다면 OCR) 등 다양한 포맷을 크롤/업로드하여 LLM-friendly chunk로 저장.
데이터 라벨링이나 스키마 정의 없이도(또는 최소한) 빠른 준비 가능.
LLM Router
대용량 데이터에서 필요한 문서를 빠르게 찾아서, LLM에게 넘김.
기존 LLM 컨텍스트 윈도우 제약(수천~수만 토큰)을 넘어서, “무제한”에 가깝게 쿼리가 가능함.
문서별 청크 인덱싱 + 검색 → 질의 관련 내용만 LLM에게 제출 → 결과 종합.
대화형 질의 & 후속 질문
질문 예시: “2024 매출 전망과 현재 예산 자료를 종합해, 올해 회사가 흑자를 낼 수 있는지 추정해줘.”
LLM이 여러 소스(PPT, CSV 등)를 참고해서 자연어 답변 제공.
사용자는 추가로 “근거 자료를 보여줘”라고 하면, 원문 링크나 인라인 인용 문구로 검증 가능.
사용자 인터페이스 & 권한 관리
웹 UI, 검색창(혹은 채팅 UI)로 쉽게 접근.
부서/역할별 접근 권한 설정 가능(해당 문서를 볼 수 없는 사람은 결과도 볼 수 없음).
통합된 보안/감사 로깅 지원(어떤 문서를 언제 참조했는지 기록).
확장성
스몰 스타트업부터 대기업(수십~수백 TB 문서)까지 스케일 업 가능.
다양한 LLM(오픈소스, API 기반)과 호환 가능 여부를 문서화(예: OpenAI, Anthropic Claude, Azure OpenAI 등).
2.3 장점 및 차별화
대용량 문서 처리 + 무제한 컨텍스트
일반적인 “챗봇” 도구는 수십~수백 페이지를 넘으면 컨텍스트 부족 문제가 생김.
Storytell은 인덱싱 + 라우팅을 통해, 필요한 부분만 추출·합성해 사실 기반 답변을 최대한 유지.
출처 확인(Reference)
답변 결과마다 원문 링크나 원본문서의 하이라이트를 제공하여, “어느 문서에서 무슨 근거를 가져왔는지” 투명하게 보여줌.
AI “환각(Hallucination)” 발생 시 사용자가 즉시 검증 가능.
마찰 없는 UI
사내 검색이나 챗봇처럼 익숙한 형태로 제공되어, 교육 비용이 낮음.
더 심층 분석이 필요하면 “Show me more” → LLM이 추가 문서나 내용 기반으로 후속 답변.
엔터프라이즈 통합
LDAP/SSO 등 기업 인증 시스템과 결합 가능.
On-Premise 또는 VPC 배포 옵션을 통해, 민감 데이터(예: 기밀 문서)도 외부 유출 없이 내부에서만 처리.
2.4 사용 사례
스타트업: 사내 여러 문서(비즈니스 플랜, 재무 시트, 고객 피드백) 결합 분석. 작지만 문서가 뒤죽박죽인 환경에서 빠른 정보 접근.
중소/중견 기업: 부서 간 문서 공유(재무, 영업, 마케팅)를 “스토리텔”에서 통합 검색 & 챗.
대기업: 거대 문서 레포지토리(수만 건의 PDF, PPT, 보고서)에 대해 “AI 지식 베이스” 구축.
고객 지원: FAQ, 매뉴얼, 릴리스 노트 등을 Storytell에 저장 → 고객 이슈 발생 시 빠른 검색 및 원문 근거 파악.
2.5 가격 및 배포 모델
SaaS 형태
Storytell.ai에서 회원가입 후, 웹 인터페이스와 클라우드 기반으로 문서 업로드 & 분석.
구독 요금제(사용량, 문서 용량, 사용자 수에 따라 차등) 예상.
Enterprise(On-Prem)
대규모 기업, 규제/보안 요건이 있는 업종을 위해 사내 설치 또는 VPC 배포 선택 가능(별도 컨설팅).
확장성, HA(고가용성), 내부 인증 시스템 연동 등 커스터마이징 가능성.
3. 종합 요약
Storytell은 기업 내 비정형 데이터(PDF, PPT, CSV, Word 등)의 80%를 LLM의 질의 기반으로 만들 수 있는 엔터프라이즈 AI 플랫폼입니다.
문서 업로드 & 인덱싱: 다양한 포맷의 문서를 크롤링 or 업로드하면, Storytell이 LLM 친화적인 청크로 변환.
LLM Router: 질의 시 관련 문서를 선택하여, 사실 기반 답변을 생성하고 출처를 제공.
대화형 UI: 사용자는 자연어로 질문을 던지고, 후속 질문·추가 근거 요청 등 심화 분석을 진행.
엔터프라이즈급 보안 & 거버넌스: 권한 설정, 감사 로깅, On-Prem 배포 등 기업 요구사항 충족.
대표 활용 사례로는 재무·영업·마케팅 문서의 통합 검색/분석, 고객지원용 FAQ·매뉴얼 AI 검색, R&D 문서 질의응답 등이 있으며, 스타트업부터 대기업까지 규모에 맞춰 활용 가능하다는 점이 강점입니다. 보다 자세한 정보와 체험은 공식 웹사이트에서 확인할 수 있습니다.
제가 이곳에 따로 유투브 라방을 준비해서 간게 아니고 현장에서 즉석으로 결정내린 거라서 그냥 제 iPhone 으로 촬영했습니다.
그래서 배터리 문제도 있고 해서 계속 중간중간 충전 하면서 촬영을 해서요. 놓친 Startup 들이 많이 있습니다.
아래는 촬영은 하지 못했지만 Demo에 참여한 업체 정보 입니다. 간단하게 제품 설명 위주로 하겠습니다.
- CopilotKit AI
CopilotKit AI는 개발자가 코드 생성, 리팩토링, 디버깅 등 다양한 워크플로에서 AI 코파일럿 기능을 쉽게 통합하고 확장할 수 있도록 해주는 솔루션(플랫폼)으로 보입니다. 공식 문서(https://docs.copilotkit.ai/)를 참고하면, 다음과 같은 특징을 요약할 수 있습니다:1. 개념 및 목적
코드 작업을 AI와 협업할 수 있는 코파일럿(Copilot) 기능을 제공.
기존 IDE나 CI/CD 파이프라인 등에 간단하게 연동하여, 코드 자동완성·리팩토링·테스트 생성 등 개발 과정을 자동화할 수 있게 함.
2. 주요 기능
Generative 코드 생성
개발자가 “특정 기능을 구현해줘”, “데이터 구조 만들기” 등 자연어 명령을 입력하면, AI가 해당 언어나 프레임워크에 맞는 코드를 제안.
불필요한 보일러플레이트 코드나 반복 작업을 줄여 개발 생산성을 높여줌.
리팩토링 & 디버깅 도움
기존 코드 블록을 AI에게 맡겨서 더 최적화된 코드나 가독성 높은 코드로 개선할 수 있음.
오류나 버그 가능성을 AI가 찾아내거나 수정 아이디어를 제시.
테스트 코드 자동 생성
함수·클래스를 AI가 분석해, 유닛 테스트나 통합 테스트를 자동 생성.
QA 시간을 단축시키고, 테스트 커버리지를 높이는 데 기여.
다양한 프로그래밍 언어 & 툴 지원
JavaScript, Python, Java, Go 등 주요 언어에 대한 학습이 되어 있어, 광범위하게 코드 제안을 해줄 수 있음.
CI/CD 파이프라인이나 IDE(Visual Studio Code, JetBrains 계열 등)와의 연동 예시를 문서에서 확인 가능.
API/SDK & Customization
REST/GraphQL API 혹은 라이브러리(SDK)를 제공하여, 프로젝트/팀 상황에 맞게 AI 사용법을 유연하게 설정 가능.
다양한 프롬프트 템플릿(custom prompt), 모델 파라미터(temperature, max tokens 등) 조정 가능.
3. 사용 예시 워크플로
계정 생성 & 문서 확인
CopilotKit AI 문서를 통해 API 키 발급, SDK 설치, 간단한 예제 코드 확인.
IDE 플러그인 or CLI 세팅
IDE 플러그인을 설치해 자동완성, 리팩토링 기능 즉시 활용,
또는 CLI/CI 환경에서 “AI로부터 코드 생성 → 빌드/테스트 → 검토” 파이프라인 구축.
문제 정의 & 코드 요청
“로그인 시스템 구현”이나 “이 API와 통신하는 함수 작성” 등 자연어 프롬프트를 통해 필요 기능 요청.
AI가 생성한 코드 검수 & 통합
자동 생성된 코드 확인 후, 필요한 부분만 수정·보완하여 최종 반영.
4. 장점 및 기대 효과
개발 속도 향상: 반복적/기본적인 코드 작업 시간을 줄여, 핵심 로직·아키텍처에 집중.
코드 품질 개선: 리팩토링이나 테스트 코드 자동 생성으로, 유지보수성과 안정성을 높임.
학습 곡선 완화: 팀 내 초급 개발자도 AI 권장사항을 참고하며 빠르게 기능 구현 가능.
5. 요약
CopilotKit AI는 다양한 언어·툴체인과 연동하여 개발자가 AI와 함께 코드를 작성·개선할 수 있도록 돕는 코파일럿 플랫폼입니다. 문서(https://docs.copilotkit.ai/)에는API/SDK 사용법, IDE 플러그인, 예제 시나리오 등이 정리되어 있으며, 이를 통해 프로젝트 규모(스타트업부터 엔터프라이즈까지)에 맞춰 생성형 AI를 손쉽게 개발 프로세스에 통합할 수 있습니다.
- Moondream AI
Moondream은 **고급 언어 모델(LLM)**을 활용해 다양한 텍스트(주로 스토리, 글, 창의적 콘텐츠)를 생성·관리할 수 있도록 돕는 생성형 AI 플랫폼으로 보입니다. 다음은 공식 문서(https://docs.moondream.ai/)에서 유추할 수 있는 특징 및 개요입니다.1. 서비스 개념
스토리·글쓰기 지원: 사용자나 기업이 원하는 주제·스타일에 맞춰 이야기, 글, 대사 등을 생성하는 기능을 제공.
맞춤형 Prompt & 모델 구성: “Prompt”를 설정해 두면, 특정 톤·장르·목적에 맞는 결과물을 지속적으로 생성할 수 있음.
에디팅·커스터마이징: 생성된 텍스트를 다시 편집하거나 재생성(Refine)하여, 원하는 최종본에 가깝게 다듬을 수 있는 툴셋이 있을 것으로 보임.
2. 특징 및 기능
Storytelling & Creative Writing
동화, 시나리오, 블로그 글 등 자유로운 서사 구조를 가진 텍스트를 AI가 자동 작성.
사용자는 키워드나 줄거리 요약을 제공하고, 원하는 글 톤(예: 유머, 진지, 동화풍)을 선택해 결과물을 얻을 수 있음.
문서·가이드
문서(Documentation) 섹션을 통해 API 사용법, SDK(혹은 라이브러리) 등의 통합 방법을 안내.
개발자가 Moondream 기능을 웹/앱에 손쉽게 통합하도록 REST API, GraphQL, CLI 형태를 지원할 수도 있음.
AI Prompt 구조
“Prompt”나 “Template”를 미리 정의해 두면, 모델이 일관된 스타일로 텍스트를 생성.
예: “5~7세 어린이를 위한 짧은 동화” 같은 프롬프트 템플릿을 등록해 두면, 클릭 한 번으로 여러 버전의 동화를 얻을 수 있음.
협업 & 버전 관리
생성된 결과물을 여러 사용자(혹은 팀)와 공유하거나, 버전을 저장해가며 수정 과정을 추적할 가능성이 높음(문서상 언급되어 있을 수 있음).
사용 시나리오
동화/짧은 이야기 생성 후, 삽화(이미지) AI와 결합해 전자책이나 콘텐츠로 활용.
콘텐츠 마케팅: 블로그 글, 이메일 카피, SNS 포스팅을 자동화하거나 아이디어를 빠르게 얻기.
개인 창작 지원: 취미로 글을 쓰거나 꿈 일기를 기록하는 사용자들이 쉽게 문학적·창의적 텍스트를 얻을 수 있음.
3. 예시 워크플로
가입 및 문서 확인
Moondream에 가입 → 문서(Documentation) 확인해 API 키·SDK 등 설정.
프롬프트/템플릿 작성
원하는 텍스트 스타일, 길이, 목표 독자 등을 지정해 “Prompt” 정의.
AI 생성 요청
웹 대시보드나 API 호출을 통해 “이 테마로 동화 1편 만들어줘” 등을 요청.
모델이 텍스트를 생성하여 반환.
결과 검수/수정
필요 시 문체나 내용(등장인물, 줄거리) 등을 추가 요구 → 후속 생성 or 편집.
4. 잠재적 활용 분야
어린이 교육·동화: 연령별 맞춤 동화·학습 자료 생성.
마케팅 & 브랜딩: 브랜드 스토리, 고객 사례, SNS 시나리오 등.
창작·소설: 취미·프로 작가가 빠른 아이디어 발상, 초안 마련.
수면/힐링 콘텐츠: 심신 이완을 위한 편안한 스토리(‘꿈’ 테마) 제공.
5. 요약
Moondream은 생성형 AI 기술을 활용하여 스토리·창의적 글 등을 손쉽게 작성할 수 있게 도와주는 플랫폼/서비스로 파악됩니다. 동화에서부터 꿈·수면 관련 스토리, 마케팅 글 등 다양한 텍스트를 생성·편집할 수 있게 해주며, 문서(https://docs.moondream.ai/)에는구체적인 API 사용법이나 설정 방법이 안내되어 있습니다. 기업·개인 모두, 창의적 글쓰기를 자동화하고 싶거나 텍스트 콘텐츠를 대량으로 생성해야 할 때 유용할 것으로 보입니다.
- CodeIntegrity AI
CodeIntegrity AI는 **테스트코드(TestCode)**가 제공하는 제품 중 하나로, 개발자가 소프트웨어 코드의 무결성(integrity) 및 품질을 AI 기반으로 자동 점검해주는 솔루션으로 보입니다. 아래는 TestCode 공식 사이트의 제품 페이지와 링크드인 정보 등을 토대로 추정한 요약입니다:
1. 개념 및 목표
코드 무결성 & 품질 관리: 소스 코드를 자동으로 스캔하고 분석해, 잠재적 버그나 보안 취약점, 코드 컨벤션 위반 등을 조기에 발견하고 개선하도록 돕는 AI 기반 플랫폼.
개발·운영 효율화: CI/CD 파이프라인에 CodeIntegrity AI를 연동하면, 빠른 피드백(코드 스멜, 린트, 테스트 커버리지 등)을 제공받아 개발 품질과 속도 모두 향상.
2. 주요 기능
AI 기반 코드 분석
머신러닝 기법을 이용해, 코드에서 발생 가능한 오류, 취약점, 유지보수성 문제 등을 자동 탐지.
일반적인 린팅(linting) 이상의 지능형 분석을 수행할 가능성이 높음.
자동화된 테스트 & 리포트
테스트케이스 추천 또는 자동생성 기능을 통해 테스트 커버리지를 높이도록 지원.
분석 결과를 리포트(보고서) 형태로 제공해, 개발팀이 어떤 부분을 수정·개선해야 할지 일목요연하게 파악 가능.
CI/CD 파이프라인 연동
Jenkins, GitLab CI, GitHub Actions 등과 결합해, 커밋/PR 시점에 자동으로 코드 검증을 실행.
이슈가 발견될 경우, 상세한 알림 및 수정 가이드를 제공해 개발 속도 및 코드 품질 유지.
보안 취약점 감지
코드 내 보안상 위험(예: SQL 인젝션, 불안전한 API 호출) 등을 검출해, 배포 이전에 조치할 수 있도록 안내.
3. 기대 효과
개발 생산성 및 품질 향상: 반복적이고 사람이 놓치기 쉬운 코딩 실수를 AI가 사전에 잡아, 코드리뷰 부담과 버그 발생률을 줄임.
안정적인 릴리스: 보안 취약점을 배포 전 단계에서 탐지함으로써, 배포 후 긴급 수정이나 장애를 예방.
엔터프라이즈급 거버넌스: 대규모 프로젝트에서도 일관된 코드 품질을 유지하고, 규정 준수(Compliance)에도 대응.
4. 요약
CodeIntegrity AI는 소스 코드의 무결성과 품질을 AI로 보장하기 위한 통합 솔루션입니다. 자동 분석, 테스트 생성, 보안 취약점 탐지, CI/CD 파이프라인 연동 등의 기능을 통해, 개발팀이 더 안전하고 효율적인 소프트웨어를 만들 수 있도록 지원합니다. 구체적인 기능과 활용사례는 TestCode 공식 웹사이트 또는 LinkedIn 페이지를 통해 확인할 수 있습니다.
- Pinecone
Pinecone는 AI/머신러닝에서 사용되는 임베딩(Embedding)을 효율적으로 저장·검색하기 위한 클라우드 기반 벡터 데이터베이스(Vector Database) 솔루션을 제공하는 회사입니다. 기존의 키워드·정형 기반 데이터베이스와 달리, 고차원 벡터 형태의 데이터를 빠르게 저장하고 유사도(코사인 유사도, 내적 등) 측정을 통해 실시간으로 유사 콘텐츠를 검색할 수 있게 합니다.
1. 배경 및 필요성
**임베딩(Embedding)**은 텍스트, 이미지, 오디오 등의 데이터를 수백~수천 차원 벡터로 표현한 것.
전통적 DB는 이러한 초고차원 벡터 검색을 빠르게 처리하기 어려움.
Pinecone은 AI/ML 애플리케이션(챗봇, 추천시스템, 검색엔진 등)에서 수십억 건 이상의 벡터를 손쉽게 저장하고, 초고속 검색할 수 있도록 특화된 인프라를 제공.
2. 주요 기능
고성능 벡터 검색
Pinecone은 ANN(Approximate Nearest Neighbor) 알고리즘을 활용하여, 대규모 임베딩 데이터셋에서도 밀리초(ms) 단위로 유사 벡터를 찾음.
스케일링 & 관리 편의
클라우드 기반으로 자동 확장(Autoscaling) 기능을 제공해, 데이터 양이 늘어나거나 요청량이 급증해도 원활하게 대응.
인프라, 파티셔닝, 복제 등을 Pinecone 플랫폼에서 처리하므로, 개발자는 간단한 API로만 벡터를 삽입·검색·삭제할 수 있음.
데이터 지속성(Persistence) & 업데이트
벡터를 일시적으로만 저장하는 캐싱 서비스가 아닌, 영구 저장(Persistent Storage) 기능이 있어 데이터 손실 방지.
벡터 추가·삭제·업데이트를 실시간 혹은 배치 모드로 수행 가능.
기타 기능
Metadata 필터링: 벡터뿐 아니라, 메타데이터를 함께 저장해 쿼리 시 특정 태그·속성에 맞춰 검색 범위 축소 가능.
다양한 언어/환경 지원: Python, Node.js 등 SDK, REST API 등을 제공해 쉽게 통합.
3. 사용 사례
문서 검색 & QA(Question Answering)
대규모 텍스트(문서, 이메일, 논문)를 임베딩한 뒤 Pinecone에 저장 → 사용자의 질의(임베딩)와 유사도가 높은 문서/문장을 찾음 → 챗봇/QA 시스템이 해당 맥락으로 응답.
추천 시스템
사용자/아이템에 대한 임베딩을 계산해 Pinecone에 저장 후, 유사도를 기반으로 맞춤 추천.
멀티모달 검색
이미지·음성도 벡터로 표현 가능하므로, Pinecone을 이용해 비주얼/오디오/텍스트 등 다양한 도메인에 적용.
4. 장점
고성능: 수억 개 이상의 벡터에 대해서도 일관적으로 빠른 검색 응답.
확장성: 클라우드에서 스케일 아웃 가능, 사용자가 인프라 세부 구성 걱정 없이 서비스 사용.
간단한 개발자 경험: REST API 혹은 Python SDK 등으로 구현이 쉬우며, 벡터 삽입/조회가 소수의 함수 호출만으로 가능.
5. 요약
Pinecone는 AI/머신러닝 애플리케이션에서 핵심인 벡터 임베딩 검색을 손쉽게 구현하고, 대규모 데이터에 대해 지연(Latency)을 최소화하는 클라우드 기반 벡터 DB입니다. 특히 문서 검색·QA, 추천 시스템, 멀티모달 검색 등 임베딩 중심의 요구가 큰 분야에서 널리 활용되고 있으며, 기업이 고성능·확장성·편의성을 갖춘 벡터 검색 인프라를 빠르게 도입하도록 지원합니다.
Hyperparam(https://hyperparam.app/)은 머신러닝(ML) 및 인공지능(AI) 프로젝트에서 하이퍼파라미터(hyperparameter)를 효율적으로 관리하고, 실험(Experiment) 워크플로를 간소화하는 데 초점을 맞춘 플랫폼으로 보입니다. 공개된 도메인과 LinkedIn 페이지를 통해 유추할 수 있는 내용을 정리하면 아래와 같습니다.
1. 개념 및 목표
하이퍼파라미터 최적화 & 실험 추적: 모델 성능을 높이기 위해 다양한 하이퍼파라미터 조합을 시도하는 과정에서, 실험 결과를 자동으로 기록·분석해주는 MLOps 솔루션.
개발/데이터 사이언스 효율성 증대: ML 모델 개발 시 반복적으로 수행하는 하이퍼파라미터 튜닝, 결과 비교, 리소스 관리 등을 자동화해 시간을 절약하고 프로젝트 생산성을 향상.
2. 주요 기능
Experiment Management
여러 실험(Experiment)을 한곳에서 쉽게 **추적(Tracking)**하고, 결과·메트릭·로그 등을 대시보드나 보고서 형태로 관리.
어떤 하이퍼파라미터 조합이 어느 정도 성능을 냈는지 한눈에 파악.
Hyperparameter Tuning
Grid Search, Random Search, Bayesian Optimization 등 다양한 검색 기법을 지원해, 최적의 하이퍼파라미터를 자동으로 탐색.
모델 성능 개선 과정을 반복해서 수행하여, 최적화된 모델을 빠르게 찾음.
자동화된 워크플로 & 배포
CI/CD 파이프라인에 쉽게 연동하거나, 클라우드/온프레미스 리소스를 활용하여 자동화된 학습 파이프라인 구성.
하이퍼파라미터 탐색 완료 후, 원하는 모델을 선정해 프로덕션 환경에 배포.
협업 & 버전 관리
팀 단위로 실험 결과를 공유하고, 모델/하이퍼파라미터 버전을 명확히 관리할 수 있도록 지원.
재현성(Reproducibility)을 높이는 데 도움.
확장성
대규모 데이터셋이나 대형 모델을 다루는 조직도 필요한 만큼 확장(Scaling)해서 사용할 수 있도록 인프라 지원.
(추정) 클라우드 제공업체(AWS, GCP, Azure 등) 및 GPU 자원과 연동하여 분산 학습 가능.
3. 기대 효과
모델 개발 효율성 극대화: 반복적인 실험을 자동화하여, 데이터 사이언티스트가 모델 설계·분석에 집중할 수 있음.
신뢰도 & 재현성: 어떤 하이퍼파라미터로 어느 시점에 어떤 성능을 얻었는지 명확히 추적 가능하므로, 팀 내 협업과 결과 검증이 쉬워짐.
프로덕션 연결성: 실험이 끝난 후에도 자동 배포 및 모니터링이 가능하므로, 개발→테스트→운영 전체가 끊김 없이 연결.
4. 요약
Hyperparam은 머신러닝 프로젝트에서 하이퍼파라미터 최적화와 실험 관리를 자동화함으로써, 개발팀이 더 빠르고 체계적으로 모델을 개선하도록 돕는 플랫폼입니다. Experiment Tracking, 다양한 튜닝 기법, 협업·버전 관리, CI/CD 연동 등 MLOps 핵심 기능을 제공하여 ML 실험 워크플로를 종합적으로 지원합니다. 구체적인 기능·도입 사례는 공식 웹사이트 및 LinkedIn 프로필을 통해 확인이 가능합니다.
- Variata AI
Variata(https://variata.ai/)는 웹사이트 도메인과 관련 정보를 종합해 볼 때, 기업용 AI/머신러닝 솔루션을 제공하며, 특히 데이터를 기반으로 여러 변수를 관리·분석하거나 맞춤형 모델을 개발하는 데 주력하는 것으로 추정됩니다. 아래는 일반적으로 유추할 수 있는 개요입니다:
1. 개념 및 목표
데이터 기반 의사결정: 복잡한 변수를 다루는 산업(예: 제조, 금융, 물류 등)에서, AI를 활용해 최적화, 예측, 시뮬레이션 등을 간소화.
맞춤형 ML 모델: 고객사 환경에 맞춰 AI 모델을 커스터마이징하여, 생산성·수익 개선 혹은 리스크 완화를 지원.
2. 가능 기능
복수 변수를 다루는 분석
여러 지표(가격, 수요, 재고, 날씨 등)를 고려해 시뮬레이션하거나, 최적 정책을 찾는 멀티밸류 분석.
예측 & 최적화
시계열 예측(트렌드 분석), 시뮬레이션 모델(다양한 ‘가정’ 변동 시 결과 예측), 최적화 알고리즘(코스트·효율 극대화).
MLOps 파이프라인
데이터 수집→학습→배포→모니터링을 일관되게 처리, 모델 성능이 저하될 때 자동 재학습 등을 수행할 수도 있음(일반적인 AI 솔루션에서 구현하는 형태).
엔터프라이즈 통합
기존 ERP, CRM, 데이터 웨어하우스 등과 연동해, 실시간 분석 혹은 배치 분석 가능.
클라우드/온프레 환경에서 확장성 있게 운영.
3. 기대 효과
복잡성 극복: 여러 변수가 얽힌 문제(스케줄링, 공급망 계획 등)를 AI 기반으로 해결, 의사결정 속도 및 정확도 향상.
비용 절감 & 효율 개선: AI 예측을 통해 리소스 낭비나 재고 과잉을 줄이고, 매출 혹은 생산성을 높이는 방안을 제안.
협업 지원: 시각화 대시보드나 보고서를 제공해, 데이터 사이언티스트부터 현업 담당자까지 쉽고 명확하게 결과를 이해.
4. 요약
Variata는 기업 대상의 데이터 분석·AI 솔루션으로, 여러 변수를 동시 고려해 예측, 최적화, 시뮬레이션 기능을 제공하는 것으로 추정됩니다. 이를 통해 기업이 복잡한 의사결정 과제를 보다 효율적으로 풀고, 머신러닝 모델 배포 및 운영을 간소화하도록 돕습니다. 자세한 내용은 공식 웹사이트에서 확인하는 것이 좋습니다.
- PocketFlow
PocketFlow AI(https://pocketflow.ai/)는AI 모델을 경량화하고 최적화하여 엣지(Edge)나 모바일 디바이스 등에서 효율적으로 구동할 수 있도록 돕는 솔루션으로 보입니다. 아래는 일반적으로 파악할 수 있는 특징입니다:
1. 개념 및 목표
모델 경량화: 대규모 신경망(딥러닝 모델)을 압축(compression), 정밀도 축소(quantization), 구조적 최적화(pruning) 등 다양한 기법으로 축소하여, 메모리 사용량과 추론(latency)을 줄임.
엣지/모바일 환경: 서버급 GPU가 아닌 스마트폰, IoT 기기처럼 자원이 제한적인 환경에서도 고성능 AI 모델을 구동할 수 있게 함.
2. 주요 기능
모델 압축 & 최적화
신경망 레이어별로 매개변수를 제거(Pruning)하거나 저정밀도(Quantization) 기법을 적용하여 고성능-저크기 모델을 생성.
자동화된 파이프라인
개발자가 원하는 목표(속도, 정확도, 모델 크기)와 환경(하드웨어 스펙)을 지정하면, 자동으로 압축 파이프라인이 실행되어 최적 솔루션을 찾음.
다양한 딥러닝 프레임워크 호환
PyTorch, TensorFlow 등 주요 딥러닝 프레임워크에서 학습된 모델을 가져와, PocketFlow를 통해 최적화 가능(추정).
성능 모니터링 & 분석 도구
모델 압축 후의 정확도, 추론 속도, 메모리 사용량 등을 정량적으로 확인해, 여러 버전을 비교하여 선택 가능.
3. 기대 효과
엣지 AI 구현: 클라우드 연결이 어려운 현장(공장, 농장, 이동체)에서 실시간 추론이 가능해짐.
비용 절감: 모델 크기를 줄여 서버 리소스나 네트워크 대역폭 부담을 덜어, 운영 비용 감소.
사용자 만족도: 모바일 앱 사용자에게 빠른 응답(낮은 지연)과 오프라인 AI 기능 제공.
4. 요약
PocketFlow AI는 대형 딥러닝 모델을 경량화해 엣지 기기나 모바일에서 빠르고 효율적으로 실행하도록 최적화하는 솔루션입니다. 모델 압축·최적화 파이프라인 및 다양한 딥러닝 프레임워크 호환 기능을 갖추고 있어, 서버급 모델을 간단히 온디바이스로 옮겨올 수 있도록 돕습니다. 자세한 사항은 공식 웹사이트에서 확인 가능합니다.
- Clearly AI
Clearly AI(https://www.clearly-ai.com/)는자동화된 머신러닝(AutoML) 기반 솔루션을 통해 기업이 쉽고 빠르게 예측 분석을 수행하도록 돕는 AI 플랫폼으로 보입니다. LinkedIn 페이지와 웹사이트에 따르면, 주된 특징은 다음과 같습니다:
1. 개념 및 목표
비개발자/현업 사용자도 손쉽게 머신러닝 모델을 만들고, 데이터 예측/분석을 수행할 수 있도록 지원.
AutoML을 활용해 모델 구성, 파라미터 최적화 등을 자동화하고, 결과를 직관적인 대시보드로 제공해 의사결정 속도를 높임.
2. 주요 기능
데이터 업로드 & 전처리
CSV, Excel 등으로 간단히 데이터셋을 업로드 가능.
기본적인 클린징·전처리 기능과, 변수(특징) 자동추출 등을 지원할 가능성이 큼.
모델 학습 & 최적화
AutoML 엔진이 다양한 알고리즘(트리 기반, 회귀, 신경망 등)을 자동 시도하며, 최적 모델을 도출.
하이퍼파라미터 튜닝, 교차 검증 등을 백그라운드에서 수행.
예측 대시보드 & 해석 가능성
모델 성능(정확도, MAE, ROC AUC 등)을 시각화하여 보여주고, 예측 결과를 분석(특성 중요도, 영향 요인 등)해줌.
“What-if” 시뮬레이션 등, 해석형(Explainable) AI 기능이 있을 수 있음.
통합 & 협업
타 BI 툴이나 데이터 파이프라인과 연동, 혹은 웹 훅/API로 자동화된 예측을 실제 업무에 적용.
팀 협업 기능으로, 결과 보고서를 공유하거나 프로젝트 버전을 추적 가능.
3. 기대 효과
개발 리소스 부족 기업이나 팀에서도, 전문가 없이 쉽게 머신러닝 모델을 생성·배포 가능.
데이터 기반 의사결정이 빨라지며, 파이썬·R 등을 모르는 현업 부서도 고급 분석을 수행할 수 있음.
비용 및 시간 절약: 수작업 모델링보다 짧은 기간에 예측 모델 구축 → 효율적 업무 프로세스.
4. 요약
Clearly AI는 AutoML 방식으로 노코드(No-Code) 예측 분석 기능을 제공해, 다양한 산업 분야에서 빠르고 간편하게 머신러닝 모델을 구축·배포할 수 있도록 돕는 플랫폼입니다. 이를 통해 기업은 데이터 분석 역량을 단기간에 강화하여, 보다 정확하고 신속한 의사결정을 내릴 수 있습니다.
- Graphlit AI
Graphlit(https://www.graphlit.com/)은 기업의 데이터를 그래프(Graph) 형태로 시각화·분석하고, 데이터 관계를 한눈에 파악하도록 돕는 AI 기반 데이터 분석 플랫폼으로 보입니다. 웹사이트 및 LinkedIn 정보를 토대로 추정할 수 있는 주요 특징은 다음과 같습니다:
1. 개념 및 목표
그래프 시각화 & 분석: 일반적인 테이블/스프레드시트 형태가 아닌, **노드(개체)와 엣지(관계)**로 데이터를 연결해 구조적으로 파악하는 그래프 기반 접근을 제공.
관계 & 패턴 발견: 복잡한 네트워크·계층 구조 속에서 핵심 인사이트(패턴, 영향도, 연결성)를 발견하고, 문제 해결이나 전략 수립에 적용.
2. 주요 기능
데이터 통합 & 인제스트
다양한 소스(데이터베이스, CSV, 클라우드 스토리지)에서 데이터를 불러와 그래프 모델로 변환.
AI/ML 기술을 활용해 데이터 중복, 정규화, 라벨링 등을 자동으로 처리할 수 있음.
그래프 기반 시각화
노드(예: 고객, 제품, 이벤트 등)와 엣지(관계, 이벤트 흐름 등)를 시각적으로 표시해 복잡한 구조를 한눈에 볼 수 있도록 함.
마우스나 터치로 확대/축소, 연결점 하이라이트 등을 지원하여, 데이터 관계를 인터랙티브하게 탐색.
분석 & 탐색 도구
경로 탐색(Shortest Path), 커뮤니티 탐지(Community Detection), 중심성(Centrality) 계산 등 그래프 알고리즘을 내장해, 중요한 노드나 서브그래프를 찾아낼 수 있음.
AI 모델을 통한 패턴 인식, 예측 분석(“이 노드의 연결망으로 인해 발생할 이벤트는?”) 가능성을 제공할 수 있음.
협업 & 보고
팀원 간 대시보드를 공유하거나, 특정 분석 결과를 PDF/이미지로 내보내어 협업을 용이하게 함.
실시간 업데이트(스트리밍) 기능으로, 변화하는 데이터를 지속적으로 시각화.
3. 기대 효과
데이터 관계 & 인사이트 발견: 단순 테이블 관점이 아닌 관계 지향 시각으로 숨겨진 패턴(이상 탐지, 연결 구조, 영향력)을 빠르게 식별.
복잡성 극복: 규모가 큰 네트워크(소셜 그래프, 사기 탐지, 추천 시스템)를 다룰 때, 시각화 기반 분석으로 이해도를 높임.
빠른 의사결정: 중요한 노드(리소스, 인물, 거래)나 핵심 연결고리를 파악해, 효율적인 전략 수립 및 리스크 감소.
4. 요약
Graphlit은 그래프(노드·엣지) 기반 분석을 핵심으로 하는 AI 데이터 분석 플랫폼으로, 복잡한 데이터 속 관계·패턴을 직관적으로 시각화하고, 이를 통해 인사이트를 얻을 수 있도록 돕습니다. 엔터프라이즈나 조직에서는 대규모 네트워크 데이터(고객 관계, 제품 간 연관, 소셜 링크 등)를 Graphlit에 통합해 인터랙티브 시각화, 그래프 알고리즘, AI 기반 예측 등을 활용함으로써 보다 정확하고 빠른 의사결정을 내릴 수 있습니다.
- Boundary AI
Boundary AI는 기업이 데이터 프라이버시, 컴플라이언스, 보안 등 AI 활용 시 발생할 수 있는 다양한 경계(Boundary)를 안전하게 관리하도록 돕는 솔루션을 제공하는 것으로 보입니다. LinkedIn 및 문서(Gitbook) 자료를 토대로 추정한 주요 특징은 다음과 같습니다:
1. 개념 및 목표
데이터 보호 & 거버넌스: 조직 내 AI 시스템에서 민감 정보가 유출되거나 잘못된 방식으로 사용되지 않도록 제어·모니터링.
프라이버시 & 컴플라이언스 준수: GDPR, CCPA 등 규제 요구사항을 충족하고, PII(개인 정보)를 안전하게 처리할 수 있도록 자동 검출 & 마스킹 등의 기능을 지원할 가능성이 큼.
AI 운영 리스크 감소: AI 모델 개발부터 배포까지 전 과정에서 보안·윤리·규제 측면에서 발생할 수 있는 위험 요소를 최소화.
2. 주요 기능
데이터 필터링 및 마스킹
업로드되는 데이터에서 개인 식별 정보(PII)나 민감 데이터를 자동으로 식별·마스킹(또는 암호화)해 안전하게 AI에 활용할 수 있게 함.
접근 제어 & 로깅
어떤 사용자(또는 서비스)가 어떤 데이터에 접근했는지 기록하고, 필요한 권한 체계(ACL, RBAC 등)를 통해 무단 조회·유출을 방지.
규정 준수 도구
GDPR, HIPAA, CCPA 등 개인 정보 보호 규정에 맞춰 데이터 취급 절차를 자동화하거나, 보고서 생성·감사 로그 등을 제공.
AI 모델 추적 및 투명성(Traceability)
특정 모델이 어떤 데이터셋을 사용했는지, 어떤 버전의 모델이 어떤 시점에 어떤 결과를 출력했는지 등 추적(Tracking) 기능을 지원하여 사후 검증 가능.
자동화 워크플로
CI/CD 파이프라인이나 MLOps 환경과 연동, 모델 훈련 시 데이터 보호 및 거버넌스 작업을 자동화해 개발 속도를 저해하지 않고 안정성을 유지.
3. 기대 효과
데이터 노출 위험 최소화: AI 프로젝트에서 발생할 수 있는 민감 데이터 유출이나 규제 위반을 줄임.
규정 준수 & 신뢰도 향상: 사내외 감사나 고객/파트너 요구사항에 맞춰, 투명하고 안전한 데이터 프로세스를 증명할 수 있음.
비즈니스 효율성 확보: 보안·프라이버시 관리를 자동화하므로, 개발/운영 팀이 핵심 기능에 집중할 수 있고, 장애나 사고 발생 비용도 줄어듦.
4. 요약
Boundary AI는 AI 프로젝트에서 데이터 보안·프라이버시·컴플라이언스를 실현하기 위한 솔루션으로, 민감 데이터 자동 마스킹·접근 제어·규정 준수 툴 등을 제공함으로써 조직이 AI를 안전하고 책임감 있게 활용하도록 돕습니다. 이를 통해 데이터 유출 리스크를 완화하고, 규제 요구를 준수하며, 개발 효율을 높일 수 있습니다.
- Hal9
Hal9(https://www.hal9.com/)은노코드/로코드 방식으로 데이터 기반 웹 앱(Data Apps)을 쉽고 빠르게 제작할 수 있도록 돕는 플랫폼으로, 데이터 사이언스와 AI를 결합해 “짧은 시간에 프로토타입부터 배포까지”를 간소화하는 것이 핵심입니다. LinkedIn 및 공식 웹사이트 정보를 종합해 보면 다음과 같은 특징을 갖습니다:
1. 개념 및 목표
데이터 앱 구축의 진입장벽 완화: 코딩 지식이 많지 않은 사용자도 데이터셋을 시각화·분석하고, 이를 웹 앱 형태로 공유할 수 있는 노코드/로코드 툴.
AI 활용: 머신러닝 모델을 간단히 불러오거나, 예측/분석 기능을 데이터 앱에 연동해 지능형 애플리케이션을 빠르게 제작.
2. 주요 기능
드래그 앤 드롭 방식
시각적 인터페이스를 통해 데이터 소스(파일, API 등) 연결, 데이터 전처리(정규화, 집계), 시각화(차트, 지도), 모델 적용 등을 블록으로 쌓아가며 조립.
데이터 시각화 & 대시보드
몇 번의 클릭만으로 다양한 형태의 차트(바, 라인, 파이, 히트맵 등)를 생성하고, 인터랙티브 대시보드를 구성.
여러 데이터 소스를 통합해, 하나의 대화형 인터페이스로 관리 가능.
머신러닝/AI 모듈
필요 시 ML 모델(예: 예측, 분류, 군집화 등)을 손쉽게 삽입하여, AI 결과를 앱 내에서 직접 활용.
모델 훈련/튜닝을 외부에서 진행하더라도, Hal9 플랫폼에서 모델 결과를 시각적으로 확인 가능.
실시간 배포 & 공유
만든 앱을 클라우드에 즉시 배포해, 팀원 혹은 대외 사용자와 공유.
웹 브라우저에서 접근할 수 있으므로, 설치나 서버 관리가 필요 없음.
확장성 & 협업
코드를 직접 추가하는 모드(로코드)도 제공할 수 있어, 고급 사용자는 JavaScript/Python 등으로 세부 기능을 커스터마이징.
협업 기능을 통해 여러 사람이 대시보드를 동시에 수정·확인 가능.
3. 기대 효과
개발 속도 상승: 아이디어 프로토타입을 신속하게 만들고, 반복 개선 가능 → 비즈니스 의사결정 속도 높임.
학습 곡선 완화: 데이터 분석 배경이 없는 사용자도 쉽게 데이터 앱을 구축해 시각화·공유.
비용 절감: 별도 웹 인프라나 전문 프로그래머 없이도 인터랙티브 웹 앱을 생산.
4. 요약
Hal9은 데이터 분석·시각화·AI 기능을 노코드로 조합해 웹 앱 형태로 배포할 수 있게 하는 플랫폼입니다. 직관적인 인터페이스와 블록(모듈) 기반 구성으로, 데이터 사이언스 및 AI 기능을 짧은 시간 내에 웹에 구현할 수 있게 하여, 스타트업부터 엔터프라이즈까지 폭넓게 활용될 수 있는 데이터 앱 빌더 솔루션입니다.
- Temperstack AI
Temperstack는 클라우드 환경에서의 애플리케이션 배포 및 관리를 손쉽게 만들기 위해, 에피메랄(임시) 환경과 자동화된 워크플로를 제공하는 DevOps 플랫폼으로 보입니다. 공식 웹사이트와 문서를 종합해 볼 때, 아래와 같은 특징을 지닙니다:
1. 개념 및 목표
에피메랄(dev/test) 환경: 필요할 때마다 손쉽게 스테이징·테스트용 환경을 생성하고, 일정 시간이 지나면 자동 종료되도록 하여 자원 낭비를 줄이고 개발 효율을 높임.
인프라 자동화: YAML 등 선언형(Declarative) 설정에 기반해, 클라우드 리소스 프로비저닝, 애플리케이션 배포, 환경 삭제 등을 자동화.
2. 주요 기능
빠른 스테이징 환경 생성
Pull Request나 특정 브랜치가 업데이트되면, Temperstack이 해당 코드를 기반으로 임시 환경(컨테이너/VM)을 자동으로 띄워 QA·테스트가 가능.
환경 테스트 후 성공/실패 여부에 따라 자동 정리(Shutdown)해 비용 및 리소스 관리 효율을 높임.
연동 & 확장성
주요 클라우드(AWS, GCP, Azure)나 쿠버네티스(Kubernetes) 클러스터와 연동해, 원하는 리소스를 온디맨드로 할당.
CI/CD 도구(Jenkins, GitHub Actions 등)와도 쉽게 연결하여 엔드 투 엔드(E2E) DevOps 흐름을 구성할 수 있음.
Infrastructure as Code
개발자가 선언형 설정 파일(예: YAML)로 인프라와 앱 설정을 정의하면, Temperstack이 배포·모니터링 과정을 자동으로 수행.
버전 관리가 용이해, 실수나 오류 발생 시 이전 상태로 롤백도 수월함.
모니터링 & 로깅
애플리케이션이 임시 환경에서 동작 중일 때, 로그 수집, 모니터링, 알림 등을 통합해 제공함으로써 디버깅과 성능 진단을 지원.
문제가 발생하면 즉시 원인을 파악하고, 필요 시 환경을 폐기·재생성 가능.
3. 기대 효과
개발 속도·품질 향상: 새 기능마다 간편하게 스테이징 환경을 만들 수 있어 QA 사이클이 빨라지고, 더 자주 배포.
비용 절감: 에피메랄 환경은 필요 시에만 살아 있고 테스트 후 자동 제거되므로, 불필요한 클라우드 리소스 소모가 크게 줄어듦.
협업 증진: 팀원들이 동일한 임시 환경에서 쉽게 테스트·검토해볼 수 있어, 코드 리뷰와 QA 효율이 향상.
4. 요약
Temperstack은 클라우드 기반 DevOps를 자동화하고, 임시(에피메랄) 스테이징 환경을 손쉽게 생성·관리할 수 있도록 해주는 플랫폼입니다. 선언형 설정, CI/CD 파이프라인 연동, 모니터링/로깅 지원 등을 통해 개발부터 테스트, 배포에 이르는 과정을 간소화하고, 리소스 활용도를 높이며, 팀 내 협업을 향상시키는 데 기여합니다.
AI 모델의 개발-배포-운영 전 과정을 하나로 연결해, 효율적이고 확장성 높은 MLOps를 구현.
대규모 모델(LLM 등)의 서빙부터 지속적 관측(Monitoring) 및 **최적화(Auto-Scaling, Auto-tuning)**를 통합적으로 제공.
2. 주요 기능
모델 서빙 & 오케스트레이션
컨테이너화된 모델(도커, 쿠버네티스 등)을 자동 스케일링하고, 요청량이 늘어나면 자원을 동적으로 할당.
고가용성(HA) 구성, 모니터링, 로깅을 내장해, 프로덕션 환경에서 안정적으로 모델을 운영.
CI/CD 파이프라인 통합
모델 버전 관리, 테스트, 스테이징 → 프로덕션 자동 배포를 지원.
GitHub Actions, Jenkins 등과 연동 가능하며, 코드 커밋 혹은 모델 업데이트 시 파이프라인 실행.
Observability & 모니터링
모델 추론 지연(Latency), 에러율, 자원 사용량 등을 대시보드로 실시간 표시.
AI 모델 성능이 일정 임계값 이하로 떨어지거나, 에러가 급증하면 알림·조치(롤백, 재학습) 기능도 예상.
분산 학습 & Auto-scaling
대규모 데이터에 대한 모델 학습 시 분산 트레이닝(multi-node, multi-GPU)을 자동화.
추론(Serving) 시에도 트래픽 패턴에 따라 오토스케일로 비용 대비 최적 성능을 유지.
보안 & 권한 관리
기업 환경을 위한 역할 기반 액세스 제어(RBAC), SSL/TLS 암호화, 감사 로그 등의 보안·거버넌스 기능 내장.
3. 기대 효과
개발 생산성 향상: 복잡한 ML 인프라 설정 없이도, 모델을 신속히 배포하고 유지보수 가능.
비용 효율 & 안정성: 필요한 시점에만 자원을 스케일업/다운해, 리소스 낭비를 줄이고 서비스 연속성을 확보.
엔터프라이즈 거버넌스: 보안, 접근 제어, 모니터링을 통합해, 대규모 기업에서도 규정 준수와 **책임 추적(Traceability)**이 용이.
4. 요약
GensX는 AI/ML 모델을 대규모로 운영하는 조직을 위해 서빙, 배포, 모니터링, 확장 전 과정을 자동화하고 최적화해주는 MLOps 플랫폼입니다. 모델 개발부터 프로덕션 운영까지 이어지는 엔드투엔드(End-to-End) 파이프라인을 구축해, 개발 효율, 비용 절감, 서비스 신뢰성을 크게 높일 수 있는 솔루션으로 볼 수 있습니다.
비정형 데이터 관리: 기업이 이미지, 비디오, 오디오, 3D 데이터 등 다양한 형식의 멀티미디어를 쉽고 빠르게 저장·검색하고, 관련 **메타데이터나 임베딩(벡터)**를 함께 다룰 수 있도록 지원.
AI·ML 워크플로 촉진: 딥러닝 모델이 생성하는 임베딩이나 **특성(feature)**를 저장·조회하여, 대규모 데이터셋에서 고성능 AI 분석과 서빙을 가능케 함.
2. 주요 기능
ApertureDB (데이터베이스)
벡터 임베딩 + 메타데이터 + 원본 파일(이미지, 영상)을 모두 통합 관리하는 하이브리드 스토리지.
대용량 멀티미디어를 위한 분산 구조와 고성능 검색(Nearest Neighbor Search, etc.) 기능을 제공.
검색 & 쿼리
콘텐츠 기반 검색(예: 이미지를 벡터화해 유사 이미지를 찾기), 태그/메타데이터 기반 필터, 복합 쿼리 등.
SQL-like 또는 그래프 질의 방식을 지원해, 복잡한 조건으로 데이터를 조회할 수 있음.
확장성 & 고성능
클러스터링을 통해 수억수십억 건 이상의 객체(이미지·비디오)도 **수 ms수백 ms** 단위로 응답할 수 있도록 스케일링.
GPU 가속, 분산 병렬 처리를 통해 대규모 AI 워크로드에 대응.
개발자 친화적 API
Python, C++ 등 다양한 언어 바인딩 혹은 REST/gRPC API를 제공해, 머신러닝 파이프라인과 쉽게 연동 가능.
ML 프레임워크(TensorFlow, PyTorch 등)로부터 생성된 임베딩을 바로 ApertureDB에 저장하고, 검색/분석할 수 있음.
워크플로 통합
데이터 준비(수집·주석), 임베딩 생성, 모델 추론, 결과 저장, 검색/재학습 등의 엔드투엔드 흐름을 간소화.
예: 이미지 분류, 객체 인식, 유사 이미지 검색, 추천 시스템 등에 활용 가능.
3. 기대 효과
복합 데이터 관리 단순화: 이미지·비디오·임베딩·메타데이터를 하나의 DB에서 통합 운영 → 데이터 중복 및 관리 비용 감소.
고속 검색: 대규모 멀티미디어(수천만 건 이상)에도 벡터 검색을 최적화해, AI 어플리케이션의 실시간 처리를 가능케 함.
ML 파이프라인 간소화: 임베딩 생성저장활용 과정을 자동화해, 모델 개발 및 운영 속도와 효율을 높임.
4. 요약
ApertureData는 ApertureDB를 중심으로, 이미지·비디오 등의 멀티미디어 데이터와 임베딩을 통합적으로 저장·검색·분석하는 솔루션을 제공하는 기업입니다. 이를 통해 AI/ML 워크플로에서 대규모 비정형 데이터를 체계적으로 관리하고, 고성능 벡터 검색과 데이터 접근을 간소화할 수 있습니다.
AI로 이메일·메신저 흐름 간소화: 기업이나 개인이 사용하는 이메일, Slack, 기타 커뮤니케이션 채널에서 발생하는 메시지를 AI가 자동으로 분류, 태깅, 요약해 업무 효율을 높임.
스마트 응답 및 자동화: 반복적 질의응답을 AI가 자동 완성하거나, “라벨링/태그”를 붙여 필요한 팀원에게 분배하는 등, 인력 부담을 덜어줌.
2. 주요 기능
메시지 자동 분류 & 태깅
고객 지원, 판매 리드, 내부 알림 등 주제/목적에 따라 대량의 이메일·메시지를 AI가 자동 구분.
우선순위, 담당자, 프로젝트별로 빠르게 확인해 협업이 용이해짐.
지능형 자동 응답
자주 묻는 질문(FAQ)이나 일정 조율 같은 반복 업무를 AI 기반 템플릿으로 처리.
필요 시 승인/검토 단계를 거치도록 설정해, 휴먼 인 더 루프(Human-in-the-loop)로 완전 자동화를 조절할 수 있음.
통합 대시보드 & 검색
여러 채널(이메일, Slack 등)에서 들어오는 대화를 하나의 인터페이스에서 조회, 검색 가능.
과거 이력(이메일 스레드, 과거 응답 예시) 등을 인공지능이 학습해 더욱 정교한 분류·답변 제공.
보안 & 권한 관리
민감한 메시지 접근을 제어하고, 데이터 보호를 위한 암호화·토큰 방식 인증 등을 제공.
기업 환경에서 **역할 기반 접근 제어(RBAC)**나, 감사 로그 등을 통해 안전한 도입 가능.
확장성 & 연동
Salesforce, HubSpot 같은 CRM 시스템이나, Zendesk 등 고객 지원 플랫폼과 연계해 티켓 자동 생성, 데이터 동기화 등의 워크플로를 구성할 수 있을 것으로 예상.
REST API나 웹 훅(Webhook) 방식으로 맞춤 통합도 가능.
3. 기대 효과
반복 업무 절감: 대량의 이메일을 일일이 수작업으로 분류·응답할 필요가 줄어, 팀 생산성이 높아짐.
빠른 대응: 고우선순위 메시지를 즉시 식별하고 템플릿 기반 응답을 통해, 고객 만족도 향상.
협업 효율 증대: 한 곳에서 모든 커뮤니케이션 흐름을 관리하고, 담당자 할당이나 알림을 자동화해 협업 속도 개선.
4. 요약
Humanlayer는 AI를 활용하여 이메일·메신저 등 기업 커뮤니케이션을 자동 분류·정리해주는 플랫폼입니다. 반복 업무를 줄이고, 효율적 응답을 가능케 하여 팀 전체의 커뮤니케이션 속도와 품질을 높이는 데 기여합니다. 개발자나 관리자는 Humanlayer가 제공하는 API나 대시보드를 통해 회사 내 메시지 흐름을 가시화하고, 인공지능 자동화를 단계적으로 적용할 수 있습니다.
그리고 아래는 Seattle Startup Summit 2025 의 Sponsor 들과 Exhibitos 들 입니다. 별도로 Research 하지 않고 회사명만 나열하겠습니다.