본문 바로가기

전체 글

(121)
랭체인 활용해서 간단한 RAG 구현 및 테스트 웹 페이지를 Context 삼아서 유저의 질문에 답하는 챗봇을 구현해보자. 과정은 다음과 같다.1. 대상 웹 페이지 크롤링2. 적절한 사이즈로 잘라서 Docs 만들기 (chunks들 만들기)3. 유저 질문 받기4. 유저 질문 기반으로 VectorDB 검색 (docs에서 가장 코사인 유사도 높은 chunk가 Context로 선택된다.)5. 최종 Prompt 생성 = 사전 Prompt + Context + 유저 질문6. 답변 대상으로는 해당 페이지를 사용하였다. (https://lilianweng.github.io/posts/2023-06-23-agent/) LLM Powered Autonomous AgentsBuilding agents with LLM (large language model) as its ..
GPT-3의 1750억 파라미터는 대체 무슨 의미일까? AI 모델에 대한 기사를 보다보면 OOO 모델은 파라미터가 몇백억 개네, 몇천억 개네.. 하는 내용을 볼 수 있다. OpenAI의 GPT-3는 1750억 개의 파라미터, 자랑스러운 한국의 하이퍼클로바X는 820억 개의 파라미터를 지녔다고 한다.  근데 파라미터가 대체 무슨 뜻일까? 처음에는 '학습한 데이터의 수인가?' 라고 생각했지만 그것도 아니고.. 뇌에 비유해서 시냅스 연결 갯수라고 표현하는 경우도 있지만 다소 추상적으로 느껴진다.  그래서 내 나름대로 직관적 이해(여전히 추상적이나 비교적 덜 추상적인)와 조금은 더 현실에 가까운 이해를 해보았다.(일부 부정확한 내용이 있을 수 있습니다) 1. 직관적 이해1750억 개의 다이얼을 정밀하게 조절해서 세상을 학습하고, 표현할 수 있다.수를 확 줄여보면 직..
Perceptron 부터 Self-Attention 까지 요약 Perceptron: 선형 모델 → XOR 문제 해결 불가.MLP: 은닉층 추가로 비선형 문제 해결 → 시계열 데이터 처리 불가.RNN: 시계열 데이터 처리 가능 → 장기 의존성 문제.LSTM: RNN 개선 → 병렬 처리 불가.Attention Mechanism: RNN/LSTM 강화 → 순차적 처리 문제는 여전.Self-Attention (Transformer): 병렬 처리와 입력 간 관계 학습의 완성형 → 현재 딥러닝 모델의 중심. 1. Perceptron (1958)단순한 선형 모델등장배경: 초기 인공지능 연구에서 "컴퓨터가 사람처럼 학습할 수 있을까?"라는 질문에서 시작.구조: 입력(feature)들을 가중치(weight)와 곱한 후, 결과를 합산하고, 활성화 함수를 통해 이진 출력(예: 0 또는..
Sovereign AI(소버린 AI)의 중요성 소버린 AI(인공지능)이란 '자주적인', '주권이 있는'이라는 의미의 소버린(Sovereign)에 인공지능을 붙인 단어다. 소버린은 주로 국가의 정책이나 자원에 대한 독립적인 통제권을 뜻하며, 최근 이러한 개념이 정보와 기술의 영역으로 확장하고 있다.출처 : 연합인포맥스(https://news.einfomax.co.kr)현실적으로 미국, 중국의 극소수 기업을 제외하면 유의미한 파운데이션 LLM 모델을 자력 구축하기 매우 어려워진 것 같다. 국내 기업이 모델을 처음부터 구축한다고치면, 모델 설계와 구현 자체도 고난도이지만 그외 인프라적인 부분 - 컴퓨팅 파워, 데이터셋 - 에서 벽을 느낄 수밖에 없다. 그리고 이 두가지가 충분하지 않으면 현재 우리가 매일 쓰는 수준의 파운데이션 모델은 만들 수 없다. 결국..
AI 연구 히스토리 (1950s - 2020s) 1. 인공지능의 기원과 첫 번째 부흥 (1950~1970년대 초)1.1 앨런 튜링과 AI의 시작 (1950)앨런 튜링:논문 "Computing Machinery and Intelligence"에서 튜링 테스트를 제안하며, "기계가 인간처럼 사고할 수 있는가?"라는 질문을 던짐.이는 인공지능의 철학적, 이론적 기반을 마련함.1.2 심볼릭 AI의 태동 (1956)다트머스 학회:"Artificial Intelligence"라는 용어가 처음 등장.초기 연구는 규칙 기반 시스템(심볼릭 AI)을 통해 문제를 해결하려 함.성공 사례:Logic Theorist: 수학 정리를 증명하는 프로그램.ELIZA: 간단한 대화형 챗봇.1.3 첫 번째 부흥의 한계XOR 문제와 퍼셉트론(1969):단층 퍼셉트론(Perceptron)..
한글 번역 | 2024: The State of Generative AI in the Enterprise Menlo Ventures에서 발표한 2024 생성형 AI 시장 리포트! GenAI 시장의 전반적인 현황을 파악하기에 매우 좋은 자료인듯👍🏻 2024: The State of Generative AI in the Enterprise - Menlo VenturesThe enterprise AI landscape is being rewritten in real time. We surveyed 600 U.S. enterprise IT decision-makers to reveal the emerging winners and losers.menlovc.com From Pilots to Production2024년은 생성형 AI가 기업에서 핵심적인 필수 요소로 자리 잡은 해입니다. 숫자가 이를 뒷받침합니..
한글 번역 | General Intelligence (2024) by James Betker AI 연구자인 James Betker가 AGI를 주제로 한 포스팅.James Betker는 OpenAI 소속 엔지니어이자, GPT-4o 개발에도 참여했던 분으로 업계의 최선단에 서있는 사람이다. https://nonint.com/2024/06/03/general-intelligence-2024/ General Intelligence (2024) – Non_Interactive – Software & MLFolks in the field of AI like to make predictions for AGI. I have thoughts, and I’ve always wanted to write them down. Let’s do that. Since this isn’t something I’ve touch..
<button>을 클릭하면 무슨 일이 벌어질까? 여기 아주 간단한 코드가 있다.import React, { useState } from 'react';function CounterButton() { const [count, setCount] = useState(0); const handleClick = () => { setCount(count + 1); }; return ( Count: {count} );}export default CounterButton;    누군가 '버튼을 누르면 무슨 일이 벌어지나요?' 라고 물으면, 다음과 같이 쉽게 대답할 수 있다.  "버튼을 누르면 count 상태가 1씩 증가합니다."  (아마도) 군더더기 없는 설명이다.  한편, 이렇게 대답할 수도 있다. "버튼을 누르면 onClic..