Verification

Verification

  • 분류 전체보기 (829)
    • 안산맛집 (112)
    • 송산맛집 (101)
    • IoT Life (86)
    • Retro PC Story(옛날 컴퓨터 이야기) (24)
    • 사용기 (123)
    • 스팀덱 (6)
    • 인공지능 (19)
    • 부자되기 위한 마인드 (11)
    • 기업 분석 및 투자 의견 (15)
    • 주식 및 코인 투자 (18)
    • 여행기록 (8)
    • 위대한수업 요약 (1)
    • 건강 (13)
    • 라이더의 삶 (7)
    • 자동차 수리 (5)
    • 자작 소설 (0)
    • IT (96)
      • 최신 IT 소식 (16)
      • 자작 프로그램 (1)
      • IT 제품 리뷰 (11)
      • 소프트웨어 테스트 (1)
      • Power Automate Desktop (4)
      • C# (16)
      • PYTHON (14)
      • Linux (1)
      • PHP (4)
      • JAVA (9)
      • Google Adsense (9)
      • NETWORK (6)
      • 평가기술 (0)
    • 뷰티 (49)
    • 토끼 키우기 (16)
    • 자취생 요리 (22)
    • Mr. Blog (14)
    • 라이프 (30)
    • 게임 (48)
      • 최신 게임 소식 (1)
      • 붉은보석 (21)
      • 디아블로3 (3)
      • 크래쉬 오브 클랜 (1)
      • 라인 레인저스 (4)
      • GTA5 PC (4)
      • 리니지W (2)
    • 최저다아싸 (3)
06-16 18:09
  • 홈
  • 태그
  • 미디어로그
  • 위치로그
  • 방명록
  • 쿠루가이의 스마트홈만들기
  • 프로그래밍 블로그
RSS 피드
로그인
로그아웃 글쓰기 관리

Verification

You are using Adblockers! This makes Capoo sad :(

Ads help us maintain the site and keep it free, please disable adblockers and make Capoo happy again !

컨텐츠 검색

태그

선부동 돼지고기 새솔동 코스피 송산맛집 구글 맥 토끼 붉은보석2 SmartThings 배당 주식점검 주식 애드센스 붉은보석 안산맛집 고잔동 IoT 안산 스마트싱스

최근글

댓글

공지사항

  • About Blog

아카이브

gguf(1)

  • github의 llama_cpp.server에 lora 기능을 추가해달라고 요청했다!

    안녕하세요. 쿠루가이입니다. `llama.cpp`를 OPENAI와 비슷하게 사용할 수 있는 `llama-cpp-python` 라고 있습니다. 최근에 gguf 파일도 추가되고 정말 좋은데요. 한가지 lora를 적용할 수 없어서 사용이 좀 꺼려지더군요. LLM을 사용하는 이유는 거의 커스터마이즈된 나만의 LLM을 갖기 위해서인데 lora가 없어서 너무 불편했습니다. 그래서 github에 아래와 같이 의뢰를 했었습니다. 그 후에 다른 유저들이 제 말을 못 알아 들었는지 llama_cpp.server가 아니라 자꾸 파이썬 코드에서 불러오는걸 사용해봐라. 모델을 병합하여 gguf만들어 그냥 사용하라라는 답변을 주더군요. 저는 llama.cpp에 lora 메뉴가 있으니까 그걸 llama_cpp.server에 적용해..

    2023.09.19
이전
1
다음
티스토리
© 2018 TISTORY. All rights reserved.

티스토리툴바