tio-boot 是 新一代 java web 开发框架:更快、更小、更简单!!!并发高 2 ~ 3 倍;内存节省 1/3 ~ 1/2;启动快 5 ~ 10 倍;打包可以缩到 1/2 ~ 1/10. tio-boot 是 基于 Java AIO 的高性能 Web 框架,能够让一台 2 核 4G 的 Linux 服务器处理上万并发连接
ubuntu下调用双卡Radeon VII 使用张量并行运行大语言模型(基于vllm)
tio-http 是一个基于 TIO 高性能网络框架之上的轻量级 Java HTTP 服务组件。它充分利用 Java NIO 的异步非阻塞 I/O 特性,在保持极佳吞吐和并发能力的同时,提供了零侵入路由、统一请求处理、拦截器机制等一系列丰富功能。
**java-kit-server** 是一个基于 Java 开发并运行于 Linux 环境下的项目,是对linux命令行工具的http封装,帮助大模型调用工具和为大模型推理提供数据来源。
AntX Chat UI 是一个基于 **React**、**TypeScript**、**Vite** 和 **Ant Design X** 打造的前端聊天界面。它专为 AI 驱动的应用程序,尤其是 AGI(通用人工智能)解决方案而设计,提供了简洁直观的用户体验。
GLM大模型客户端,一个独立的桌面应用程序,用于 glm,使用 Tauri 构建。 ## 功能 * **原生体验**:直接从桌面与 glm 交互,无需浏览器。 * **快速且轻量**:使用 Tauri 构建,应用程序资源占用少,启动迅速。 * **跨平台**:支持 Windows、macOS 和 Linux。
`supers` 是一个用 Go 编写的轻量级进程管理守护进程(`superd`)及配套命令行客户端(`supers`)。 - 进程管理:启动 / 停止 / 重启 / 状态查询 - 自动重启:异常退出后自动重启 - 日志收集与切割:按大小 / 天数滚动 - 动态配置:`reload` 动态加载 `/etc/super/*.service`;`start` on-demand
java-maxkb 是一个基于 Java 开发的智能知识库系统,利用先进的自然语言处理和向量检索技术,为用户提供高效、准确的问答服务。通过集成文档管理、片段向量化、语义搜索和大语言模型(如 GPT-4)等功能,系统能够理解用户的问题,并从知识库中检索最相关的内容生成回答。
是一个强大的Ai客户端库,用于将 OpenAI 服务集成到 Java 应用程序中。该库构建于 OkHttp 和 Fastjson2 之上,为与 OpenAI 的 API 交互提供了一种无缝高效的方式——支持聊天补全、图像处理、嵌入等功能。并通知调用 gemini,jina,textin,deepseek等服务端.
tio-websocket 是基于 TIO 高性能网络框架之上的轻量级 Java WebSocket 服务组件。它充分利用异步非阻塞 I/O 特性,提供稳定、高效的双向通信能力。tio-websocket **不支持注解式路由**,所有 WebSocket 端点需通过编程方式进行注册和配置。
该服务是一个支持多模型的大语言模型代理服务。该代理服务将接收来自客户端的请求(包括流式和非流式模式),并通过统一接口将请求转发至OpenAI、Anthropic Claude和Google Gemini等API,同时负责将返回结果以HTTP响应或SSE(Server-Sent Events)流的形式返回给客户端。
[yt-dlp 的一个 Java 封装库,yt-dlp 是一个用于下载 YouTube 以及其他网站视频的流行命令行工具。该项目允许你使用构建器模式构造自定义下载命令,支持同步或异步(实时日志)方式执行下载任务,并能捕获诸如下载后文件名等输出信息。