일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- CSS
- 코드 시각화
- 코드 이해하기
- 문서객체모델
- 전처리도구
- C언어
- MySQL
- 타입 오류
- 깃허브
- 쿼리 오류
- jstl
- 자바
- Python
- 그딴건없었다
- SQL
- 코드 가시화
- jsp
- 로그인 기능
- 렌파이
- SpringBoot
- nvl함수
- 값 가져오기
- 자바스크립트
- 1인개발
- react-three-fiber
- REACT
- 웹 퍼블리싱
- java
- spring
- 헬생아
- Today
- Total
This is it. it's IT.
ollama : 무료 오픈소스 LLM 실행 가능 본문
docker pull ollama/ollama
터미널에서 해당 명령어로 ollama를 도커 이미지로 풀 해온다.
https://hub.docker.com/r/ollama/ollama
ㄱ,리고 실행하면
https://www.developerfastlane.com/blog/ollama-usage-guide
Ollama란? Ollama 사용법: 내 PC에서 무료로 LLM 실행하기 | 코딩추월차선
Ollama를 사용하여 내 PC에서 무료로 대형 언어 모델(LLM)을 실행하는 방법을 알아봅니다. 설치부터 사용법까지 자세히 설명합니다.
www.developerfastlane.com
그러면됨 ㅇㅇ
ollama run llama3
https://devmeta.tistory.com/68
ollama 활용 llama3 사용법 (우선 window)
https://ollama.com/ OllamaGet up and running with large language models.ollama.com여기서 windows 용 다운로드 설치를 하고 Models 에 가서 llama3 를 선택 latest 가 8B 모델인가보다.ollama 를 실행하고 터미널이 열리면
devmeta.tistory.com
근데 윈도우로 하는게 더 편해서 윈도우로 깔았다 .. .
윈도우로 설치 후 ollama 실행하면 기본 포트 11434로 로컬 서버가 실행됨.
올라마 서버임.
파이썬에서 이 올라마를 불러오려면 pip install ollama. 로 패키지 다운로드 하세요
import ollama
response = ollama.chat(model='llama3', messages=[
{
'role': 'user',
'content': '한국어로 말해줘. 하늘이 파란 이유는?',
},
])
print(response['message']['content'])
이러면 대답을 해줍니다.
GPT4ALL은 오픈소스 모델을 파인튜닝한 것이다.
https://github.com/nomic-ai/gpt4all/blob/main/gpt4all-lora-demo.gif
gpt4all/gpt4all-lora-demo.gif at main · nomic-ai/gpt4all
gpt4all: run open-source LLMs anywhere. Contribute to nomic-ai/gpt4all development by creating an account on GitHub.
github.com