基于瀏覽器運行的 Ollama WEB客戶端開源發布 原創
一、摘要
??LocalAPI.ai??? 是一個開源的在線調用系統,專注于提供基于瀏覽器的 Ollama WEB UI客戶端。該系統致力于為用戶提供便捷、安全的 AI 服務體驗,允許用戶無需安裝第三方軟件即使用可進行智能對話、文本生成、模型管理等功能,并且支持在移動端(手機)進行遠程使用。
在線體驗: ???http://www.LocalAPI.ai??
Github地址:??https://github.com/vam876/LocalAPI.AI/??
? PC版本功能演示
? 移動端版本功能演示
二、主要功能
? 遠程調用:支持通過 API 遠程調用 Ollama 模型,實現云端計算資源的高效利用。
? 兼容移動端:優化了瀏覽器的適配,用戶可以在手機等移動設備上流暢地訪問系統,進行遠程模型調用和相關操作。
? 安全性增強:提供身份驗證和訪問控制機制,確保模型調用的安全性。
? 多模型支持:支持多種 Ollama 模型,滿足不同場景下的需求。
? 代碼高亮顯示:在交互界面中,代碼片段會自動進行語法高亮顯示,提升代碼可讀性和編寫效率。
三、快速部署
方式一
可直接下載集成LocalAPI.ai的Nginx,修改nginx.conf配置文件中的的Ollama API地址既可以一鍵啟動 ??https://github.com/vam876/LocalAPI.AI/releases/tag/Bete??
方式二
將以下文件部署到 web 服務即可快速訪問:
index.html
assets/index-6T7dvEla.js
assets/index-Bu-ZNHg4.css
使用 Nginx 反向代理(推薦)
利用 Nginx 的反向代理功能可以無需解決跨域限制,快速啟動服務。以下是一個示例配置:
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
# 禁用緩沖以支持流式響應
proxy_buffering off;
# 增大緩沖區設置,避免 502 Bad Gateway
proxy_buffer_size 256k;
proxy_buffers 4 256k;
proxy_busy_buffers_size 512k;
server {
listen 80; # 綁定80端口
server_name your_domain_or_ip;
# 代理 Ollama 服務到 /api/
location /api/ {
proxy_pass http://127.0.0.1:11434/api/; # 這里填寫Ollama API服務的地址
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
# 處理 OPTIONS 請求
if ($request_method = 'OPTIONS') {
add_header 'Access-Control-Max-Age' 1728000;
add_header 'Content-Type' 'text/plain charset=UTF-8';
add_header 'Content-Length' 0;
return 204;
}
}
# 自定義 404 錯誤頁面,重定向到首頁
error_page 404 /;
location = / {
internal;
}
# 可選:處理其他靜態資源請求
location / {
try_files $uri $uri/ /;
}
}}
?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2025-3-5 23:19:55修改
贊
收藏
回復
分享
微博
QQ
微信
舉報

回復
相關推薦