• [Nuxt.js-2] Nuxt.js 페이지와 라우팅 시스템

    [Nuxt.js-2] Nuxt.js 페이지와 라우팅 시스템

    지난 포스트에서 Nuxt.js의 기본 개념과 개발 환경 설정에 대해 알아보았습니다. 이번 포스트는 Nuxt.js의 핵심 기능 중 하나인 파일 기반 라우팅 시스템에 대해 자세히 알아보겠습니다. Vue.js에서는 라우팅을 위해 별도로 router 설정을 해주어야 했지만, Nuxt.js에서는 파일 구조만으로 자동으로 라우팅이 구성되는 편리한 시스템을 제공합니다. 1. Nuxt.js의 파일 기반 라우팅 Nuxt.js에서는 app/pages 디렉토리 내의 파일 구조가 곧 애플리케이션의 라우팅…

  • Cogency: 필요한 만큼 생각하는 스마트 AI 에이전트

    Cogency: 필요한 만큼 생각하는 스마트 AI 에이전트

    AI 에이전트 기술이 빠르게 발전하면서 개발자들은 더 직관적이고 효율적인 도구를 찾고 있습니다. 그 중심에 Cogency가 있습니다. 단 3줄의 코드로 구현 가능한 이 AI 에이전트는 작업의 복잡성에 따라 사고 깊이를 자동으로 조절하는 기능을 제공합니다. Cogency란 무엇인가? Cogency는 “필요한 만큼 생각하는 스마트 AI 에이전트”라는 슬로건을 내세운 AI 프레임워크입니다. (이전 슬로건은 ‘3줄로 작동하는 AI 에이전트’이었습니다. 역시 3줄로는 무리였나봅니다.…

  • [Nuxt.js-1] Nuxt.js 소개 및 개발 환경 설정

    [Nuxt.js-1] Nuxt.js 소개 및 개발 환경 설정

    Nuxt.js의 기초부터 심화 내용까지 차근차근 알아보겠습니다. 오늘은 Nuxt.js가 무엇인지, 왜 사용해야 하는지, 그리고 개발 환경을 어떻게 설정하는지에 대해 포스팅합니다. Nuxt 최신 버전은 4입니다. (2025.07 기준) ver3과 ver4에 대해서 함께 다루겠습니다만, 가급적 최신 버전에 맞춰 설명하도록 하겠습니다. Nuxt.js란 무엇인가? Nuxt.js는 Vue.js 애플리케이션을 더 쉽게 개발할 수 있도록 도와주는 프레임워크입니다. Vue.js의 장점을 그대로 가져오면서 서버 사이드 렌더링(SSR),…

  • Supabase vs Google Firebase

    Supabase vs Google Firebase

    Supabase 대 Google Firebase: 완벽 비교 분석 개발자가 새로운 프로젝트를 시작할 때, 백엔드 서비스(BaaS, Backend-as-a-Service) 플랫폼의 선택은 개발 속도, 확장성 및 비용에 큰 영향을 미치는 중요한 결정입니다. 이 분야에서는 오랫동안 Google의 Firebase가 사용 편의성과 포괄적인 기능으로 시장을 선도해왔습니다. 하지만 최근 오픈소스 플랫폼인 Supabase가 SQL 기반 접근 방식과 개발자 친화적인 기능들을 앞세워 강력한 경쟁자로 급부상했습니다. 이…

  • 누가 뭐래도

    그래… 그냥 내가 하고싶은데로 하자.

  • Crawl4AI: LLM 친화적인 오픈소스 웹 크롤러 및 스크래퍼

    Crawl4AI: LLM 친화적인 오픈소스 웹 크롤러 및 스크래퍼

    웹 크롤링과 스크래핑은 데이터 수집에 있어 필수적인 기술입니다. 특히 AI와 LLM(Large Language Model) 시대에 접어들면서 이러한 기술의 중요성은 더욱 커지고 있습니다. 이런 상황에서 Crawl4AI는 AI 친화적인 웹 크롤링 솔루션으로 주목받고 있습니다. Crawl4AI(https://docs.crawl4ai.com/)는 GitHub(https://github.com/unclecode/crawl4ai)에서 가장 트렌디한 리포지토리 중 하나로, 활발한 커뮤니티에 의해 지속적으로 관리되고 있습니다. 이 도구는 대규모 언어 모델, AI 에이전트 및 데이터 파이프라인을 위해…

  • LocalAI: 프라이버시를 지키며 AI 모델을 로컬에서 실행하는 완벽한 솔루션

    LocalAI: 프라이버시를 지키며 AI 모델을 로컬에서 실행하는 완벽한 솔루션

    AI 기술이 발전함에 따라 개인 정보 보호와 데이터 주권에 대한 관심이 높아지고 있습니다. 이러한 요구에 부응하여 등장한 LocalAI는 AI 모델을 로컬 환경에서 실행할 수 있게 해주는 오픈소스 솔루션입니다. LLM서비스가 필수이지만, 기업의 보안 측면을 위해 자체 LLM에대한 요구가 더 확고해지는것 같습니다. 다만, 자체 LLM을 위한 성능과 리소스의 최적화된 해결책은 아직 뚜렷하게 보이지는 않는것 같습니다. 완벽하게는 아니더라도…

  • Text Generation Inference(TGI): LLM 서비스를 위한 최적화 솔루션 소개

    Text Generation Inference(TGI): LLM 서비스를 위한 최적화 솔루션 소개

    대규모 언어 모델(LLM)을 실제 서비스에 적용하려면 단순히 모델을 불러오는 것 이상의 작업이 필요합니다. 효율적인 추론, 안정적인 서빙, 그리고 최적화된 성능을 위한 인프라 구축이 중요한데요. 오늘은 이러한 요구사항을 충족시키는 Hugging Face의 Text Generation Inference(TGI)에 대해 알아보겠습니다. TGI란 무엇인가? Text Generation Inference(TGI)는 대규모 언어 모델(LLM)을 배포하고 서빙하기 위한 오픈소스 툴킷입니다. 허깅페이스(Hugging Face)가 개발한 TGI는 LLM을 프로덕션 환경에서…

  • Python Pandas로 데이터 전처리 및 정제 마스터하기

    데이터를 다루는 과정에서 데이터 전처리는 매우 중요한 단계입니다. 이 글에서는 Pandas를 사용하여 데이터를 효과적으로 정제하고 변환하는 핵심 기법들을 살펴보겠습니다. 1. 결측치 처리 전략 결측치는 데이터 분석에 심각한 영향을 미칠 수 있습니다. Pandas에서는 다양한 방법으로 결측치를 처리할 수 있습니다. 1.1 결측치 확인 및 개수 파악 1.2 결측치 처리 방법 주의사항 2. 중복 데이터 제거 3. 이상치…