전체 글43 [MCP Study] 3. Smithery MCP 서버 사용하기 ⛔️ MCP의 내용을 개인적으로 스터디 하면서 정리한 자료입니다! 혹시 잘못된 내용이나 오타, 개선할 사항이 있으시면 편하게 댓글 남겨주세요! 🙇♂️⛳️ 목표!Smithery의 MCP 서버를 사용하여 간단하게 MCP 도구 추가하기! 🍽️ 사전 준비 사항사전 준비 사항은 이전 글인 “1개의 MCP 서버와 클라이언트 통신하기”의 내용과 동일합니다. 🛠️ 실습 내용⛏️ Smithery 사용하기이번 내용에서는 직접 구현한 MCP 서버가 아니라 Smithery의 MCP 서버를 사용하는 내용을 살펴보겠습니다.먼저 Smithery 공식 웹사이트 (https://smithery.ai/)에 접속합니다.Smithery 웹 사이트에는 아래와 같이 많은 MCP 서버들이 있는 것을 볼 수 있습니다!! 🫢먼저 우.. 2025. 5. 23. [MCP Study] 2. 다수의 MCP 서버와 클라이언트 통신하기 ⛔️ 요즘 MCP가 엄청나게 화제라서 개인적으로 해당 내용을 스터디 하면서 정리한 자료입니다! 혹시 잘못된 내용이나 오타, 개선할 사항이 있으시면 편하게 댓글 남겨주세요! 🙇♂️⛳️ 목표!sse 방식으로 날씨 서버를 추가해서 현재 날씨에 대한 질문에도 정확하게 답변하도록 해보자!🍽️ 사전 준비 사항사전 준비 사항은 이전 글인 “1개의 MCP 서버와 클라이언트 통신하기”의 내용과 동일합니다.🛠️ 실습 내용기존에 사용하던 stdio 방식의 MCP 서버에 sse 방식의 MCP 서버를 추가하여 서로 다른 방식으로 2개의 서버를 사용합니다.클라이언트에서 LLM이 사용자의 입력에 따라 서빙된 2개의 도구 중 적절한 도구를 스스로 선택해서 응답하는 과정을 살펴봅니다.🔎 검색 도구만 사용했을 때의 한계.. 2025. 5. 21. [MCP Study] 1. 1개의 MCP 서버와 클라이언트 통신하기 ⛔️ 요즘 MCP가 엄청나게 화제라서 개인적으로 해당 내용을 스터디 하면서 정리한 자료입니다! 혹시 잘못된 내용이나 오타, 개선할 사항이 있으시면 편하게 댓글 남겨주세요! 🙇♂️⛳️ 목표!검색을 위한 MCP 서버를 띄우고 client에서 이 서버에 띄운 도구를 호출하여 알맞은 응답을 얻기!!🍽️ 사전 준비 사항우선 아래와 같이 필요한 패키지를 설치합니다.pip install langgraph langchain-openai langchain-mcp-adapters duckduckgo-search beautifulsoup4 aiohttp python-dotenv 그리고 현재 작업을 수행중인 폴더 안에 .env 파일을 생성하고 안에 openai key를 입력합니다.OPENAI_API_KEY=Ope.. 2025. 5. 6. [MCP Study] 0. MCP 개요 ⛔️ 요즘 MCP가 엄청나게 화제라서 개인적으로 해당 내용을 스터디 하면서 정리한 자료입니다! 혹시 잘못된 내용이나 오타, 개선할 사항이 있으시면 편하게 댓글 남겨주세요! 🙇♂️ 🎬 스터디 개요이 스터디는 기본적으로 LangGraph, LangChain을 기반으로 하는 에이전트에 MCP를 기반으로 하는 도구들을 사용하는 방법에 대해 알아보려고 합니다. 본격적으로 스터디 내용을 시작하기 전에 AI 에이전트가 무엇인지, 왜 MCP가 필요한지 한번 알아보겠습니다! 🙌 😎 AI 에이전트란?MCP에 대해 이야기하기 전에 먼저 AI 에이전트가 무엇이고 현재 이를 사용하는데 어떤 문제가 있는지 살펴보겠습니다.우선 최근 대형 언어 모델 (Large Language Model, LLM)이 엄청나게 발전.. 2025. 4. 29. Scalable Diffusion Models with Transformers 논문 링크: https://arxiv.org/pdf/2212.09748프로젝트 페이지: https://www.wpeebles.com/DiT깃허브: https://github.com/facebookresearch/DiT 0. Abstract본 논문에서는 트랜스포머 (Transformer) 구조를 백본 (Backbone)으로 하는 새로운 확산 모델 (Diffusion Model) 제안이미지에 대한 잠재 확산 모델 (Latent Diffusion Model, LDM)을 학습 → 일반적으로 사용되는 U-Net 모델 대신 잠재 패치에서 작동하는 트랜스포머 사용또한 본 논문에서 제안하는 DiT (Diffusion Transformers)의 확장성에 대해 분석입력 토큰 수의 증가에 따라 트랜스포머의 깊이/너비가 증가.. 2025. 4. 19. SANA: Efficient High-Resolution Image Synthesis with Linear Diffusion Transformers 논문 링크: https://arxiv.org/pdf/2410.10629프로젝트 페이지: https://nvlabs.github.io/Sana/깃허브: https://github.com/NVlabs/Sana 0. AbstractSana: 효율적으로 이미지를 4096x4096 해상도까지 생성할 수 있는 text-to-image 프레임워크Sana의 특징고해상도 이미지 생성 가능강력한 텍스트-이미지 일치도 (text-image alignment)노트북 GPU에서 구동 가능할 정도의 엄청나게 빠른 속도Sana의 핵심 디자인심층 압축 오토 인코더 (Deep Compression Autoencoder)이미지를 8x 만 압축하는 기존의 AE (AutoEncoder)와는 다르게 본 논문에서는 32x로 이미지를 압축하는 .. 2025. 4. 11. 이전 1 2 3 4 ··· 8 다음 반응형