# easyAi **Repository Path**: bianbin/easyAi ## Basic Information - **Project Name**: easyAi - **Description**: java傻瓜ai框架,无需任何算法知识,通过简单的api调用就可以实现 常用的图像内物体的识别,定位等图像ai服务,及自然语言分类处理服务。面向java开发程序员,不依赖任何第三方库,第三方接口,独立包。视频教程地址如下 - **Primary Language**: Java - **License**: Apache-2.0 - **Default Branch**: master - **Homepage**: https://www.bilibili.com/video/av89134035 - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1594 - **Created**: 2022-11-18 - **Last Updated**: 2022-11-18 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # easyAi 本包说明: * 本包原名imageMarket,因为开始加入自然语言模块,所以之后更名为easyAi * 本包对物体在图像中进行训练及识别,切割,定位的轻量级,面向小白的框架,功能在逐渐扩展中 * 本包对中文输入语句,对输入语句的类别进行分类,功能在逐渐扩展中 * 若有想扩充的功能请进群提意见,若是通用场景我会陆续补充,技术交流群:561433236 ## 详细视频教程地址: * 视频教程地址:https://www.bilibili.com/video/av89134035 ## 测试素材下载 链接:https://pan.baidu.com/s/1Vzwn3iMPBI-FAXBDrCSglg 密码:7juj ## 框架效果演示结果: * 因为是框架没有图像化界面,演示结果就是控制台输出的数据,只能用视频展示,想看演示结果请看教学视频 ## 控制台输出演示 * 演示都是输出结果,详情请看具体视频教程,上有链接,这里就是展示一下控制台输出截图。 * 识别测试训练素材:[点击查看](./src/test/image/a1.jpg) * 中文语言分类效果:[点击查看](./src/test/image/end3.png) ### 目前拥有的功能是 * 对单张图片单物体进行识别 * 对单张图片多物体进行识别与定位 * 对中文语言进行分类语义识别,判断用户说话的语义是什么,要做什么 * 若有想扩充的功能请进群提意见,若是通用场景我会陆续补充,技术交流群:561433236 ### 目的是 * 低硬件成本,CPU可快速学习运行,面向jAVA开发的程序员,经过简单API调用就可实现物体在图像中的识别,定位及中文语言分类等功能 * 努力为中小企业提供AI场景解决技术方案 * 技术交流群:561433236 ### 特点是 入手门槛低,简单配置,快速上手 #### 为什么做这个包 * 低门槛化: 现在随着人工智能技术的兴起,很多场景需要开发人员添加相应的功能,但是在二三线城市算法人才匮乏。 并且大多是JAVA开发程序员,业务做的更多,因为作者本人就是三线城市程序员,所以深知这一点。 所以我本人认为需要一款部署简单,不需要学习任何算法知识, 只通过最简单的API调用,就可以实现部分人工智能应用,并面向覆盖面最广的JAVA程序员使用的,且 能满足大部分AI业务场景实现的技术包。 * 面向用户:广大没接触过算法知识,人才相对匮乏的二三线JAVA业务开发程序员,实现人工智能应用 * 部署简单: 本包所有底层函数及数学库都是作者JAVA手写,不依赖任何第三方库,所以开发者只需要将本包下载到本地后,打成JAR包 引入到自己的POM文件中,就可以独立使用所有功能。 * 功能还在扩展: 本包现在的功能还在逐步扩展中 * 抛错捕获暂时还没有做全,若有抛错请进群交流:561433236,我来做一下错误定位 * 若您有相对复杂的人工智能业务(开源功能无法满足的,包括但不限于图像识别,自然语言)请联系作者 vx:thenk008 进行基于easyAi定制化业务情景开发(即java人工智能开发) ## HELLO WORLD说明: * 以下为最简API文档,所有非必设参数都使用本引擎默认值 * 要注意的是使用最简API,及参数默认值准确度远不能达到最佳状态 ### 图像学习部分最简API 说明: ``` java 训练过程 Picture picture = new Picture();//图片解析类 Config config = new Config();//配置文件 config.setTypeNub(2);//设置训练种类数 config.setBoxSize(125);//设置物体大致大小 单位像素 即 125*125 的矩形 config.setPictureNumber(5);//设置每个种类训练图片数量 某个类别有几张照片,注意所有种类照片数量要保持一致 config.setPth(0.7);//设置可信概率,只有超过可信概率阈值,得出的结果才是可信的 数值为0-1之间 config.setShowLog(true);//输出学习时打印数据 Distinguish distinguish = new Distinguish(config);//创建识别类 distinguish.setBackGround(picture.getThreeMatrix("E:\\ls\\fp15\\back.jpg"));//设置识别的背景图片(该api为固定背景) List foodPictures = new ArrayList<>();//创建训练模板集合 for (int i = 1; i < 3; i++) { FoodPicture foodPicture = new FoodPicture();//创建每一类图片的训练模板类 foodPictures.add(foodPicture);//将该类模板加入集合 List picturePositionList = new ArrayList<>();//创建该类模板的训练集合类 foodPicture.setId(i + 1);//设置该图片类别id foodPicture.setPicturePositionList(picturePositionList); for (int j = 1; j < 6; j++) {//训练图片数量为 每种五张 注意跟config 中的 pictureNumber 要一致 String name; if (i == 1) {//加载图片url地址名称 name = "a"; } else { name = "b"; } PicturePosition picturePosition = new PicturePosition(); picturePosition.setUrl("E:\\ls\\fp15\\" + name + i + ".jpg");//加载该类别图片地址 picturePosition.setNeedCut(false);//是否需要剪切,若训练素材为充满全图图片,则充满全图不需要剪切 写false picturePositionList.add(picturePosition);//加载 } } distinguish.studyImage(foodPictures);//进行学习 System.out.println(JSON.toJSONString(distinguish.getModel()));//输出模型保存,将模型实体类序列化为json保存 /////////////////////////////////////////////////////////////////////// 初始化过程 Picture picture = new Picture();//图片解析类 Config config = new Config();//配置文件 config.setTypeNub(2);//设置类别数量 config.setBoxSize(125);//设置物体大小 单位像素 config.setPictureNumber(5);//设置每个种类训练图片数量 config.setPth(0.7);//设置可信概率,只有超过可信概率阈值,得出的结果才是可信的 config.setShowLog(true);//输出学习时打印数据 Distinguish distinguish = new Distinguish(config);//识别类 distinguish.insertModel(JSONObject.parseObject(ModelData.DATA, Model.class));//将之前训练时保存的训练模型反序列化为实体类后,注入模型 完成后请单例Distinguish类,即完成系统启动时初始化过程 /////////////////////////////////////////////////////////////////////// 识别过程 Distinguish distinguish; 此识别类为系统启动时已经初始化的 单例distinguish,识别过程请不要 "new" 这个类 for (int i = 1; i < 8; i++) { System.out.println("i====" + i); ThreeChannelMatrix t = picture.getThreeMatrix("E:\\ls\\fp15\\t" + i + ".jpg");//将识别图片转化为矩阵 Map map = distinguish.distinguish(t);//识别结果 for (Map.Entry entry : map.entrySet()) { System.out.println(entry.getKey() + ":" + entry.getValue());//识别结果打印 } } //////////////////////////////////////////////////////////////////////////////////// 识别结果打印说明(此为本包提供的测试图片样本的 输出结果说明,在之前的训练中橘子设置的id为2,苹果为3) i====1//第一张图 结果为 橘子,出现2:代表类别。:0.8874306751020916,带表该类别权重,权重越高说明该类别的物品在当前 图片中数量越多或者面积越大。 2:0.8874306751020916 说明(图1有橘子,权重为:0.8874306751020916) i====2 2:0.8878192183606407 i====3 3:0.7233916245920673说明(图3有苹果,权重为:0.7233916245920673) i====4 2:0.9335699571468958说明(图4有橘子,权重为:0.9335699571468958) 3:0.7750825597199661说明(图4有苹果,权重为:0.7750825597199661) i====5 3:0.8481590575557582 i====6 2:0.7971025523095067 i====7 2:1.5584968376080388(图7有橘子,权重为:1.5584968376080388) 3:0.8754957897385587(图7有苹果,权重为:0.8754957897385587) 本演示样例代码位置在: src/test/java/org/wlld/ImageTest.java 本演示训练素材位置在: src/test/image 注意:以上图片识别代码样例为训练素材为物品全图充满图片(自己看能看到橘子训练图片为全图充满,苹果也是).自行开发时用以上代码样例时,请也使用全图充满训练物品的图片来做训练,非全图充满训练素材图训练api有变化! ``` ### 自然语言分类最简API 说明: ``` java //通过txt默认格式进行读取 TemplateReader templateReader = new TemplateReader(); WordTemple wordTemple = new WordTemple();//初始化语言模版,该语言模板训练结束后一定要static出来,在内存中长期持有,Talk识别构造参数进行复用 //wordTemple.setTreeNub(9); //wordTemple.setTrustPunishment(0.5); //读取语言模版,第一个参数是模版地址,第二个参数是编码方式 (教程里的第三个参数已经省略) //同时也是学习过程 templateReader.read("/Users/lidapeng/Desktop/myDocument/model.txt", "UTF-8", wordTemple); Talk talk = new Talk(wordTemple); //输入语句进行识别,若有标点符号会形成LIST中的每个元素 //返回的集合中每个值代表了输入语句,每个标点符号前语句的分类 List list = talk.talk("空调坏了,帮我修一修"); System.out.println(list); /////////////////////////////////自定义输入训练语句 WordTemple wordTemple = new WordTemple();//初始化语言模版,该语言模板训练结束后一定要static出来,在内存中长期持有,Talk识别构造参数进行复用 Tokenizer tokenizer = new Tokenizer(wordTemple);//学习类 //训练模板 主键为类别id,值为该类别id的语句集合 //注意 //1,若训练量不足,建议训练语句通过标点符号拆分为若干句,且不要将标点符号带入训练语句 //2,包含数字的语句用统一的占位符代替 例如 35,3,36% 变为 #,#,#% Map> model = new HashMap<>(); //开始训练 tokenizer.start(model); ///////////////////////////////////单纯对输入语句进行切词结果返回,不进行识别 wordTemple.setSplitWord(true);//将模板设置成纯切词模式 List> lists = talk.getSplitWord("空调坏了,帮我修一修"); for (List list : lists) { System.out.println(list); } ``` ### 神经网络最简API说明 ``` java //创建一个DNN神经网络管理器 NerveManager nerveManager = new NerveManager(...); //构造参数 //sensoryNerveNub 感知神经元数量 即输入特征数量 //hiddenNerverNub 每一层隐层神经元的数量 //outNerveNub 输出神经元数量 即分类的类别 //hiddenDepth 隐层神经元深度,即学习深度 //activeFunction 激活函数 //isDynamic 是否启用动态神经元数量(没有特殊需求建议为静态,动态需要专业知识) public NerveManager(int sensoryNerveNub, int hiddenNerverNub, int outNerveNub, int hiddenDepth, ActiveFunction activeFunction, boolean isDynamic) nerveManager.getSensoryNerves()获取感知神经元集合 //eventId:事件ID //parameter:输入特征值 //isStudy:是否是学习 //E:特征标注 //OutBack 回调类 SensoryNerv.postMessage(long eventId, double parameter, boolean isStudy, Map E, OutBack outBack) //每一次输出结果都会返回给回调类,通过回调类拿取输出结果,并通过eventId来对应事件 ``` ### 随机森林最简API说明 ``` java //创建一个内存中的数据表 DataTable dataTable = new DataTable(column); //构造参数是列名集合 public DataTable(Set key) //指定主列名集合中该表的主键 dataTable.setKey("point"); //创建一片随机森林 RandomForest randomForest = new RandomForest(7); //构造参数为森林里的树木数量 public RandomForest(int treeNub) //唤醒随机森林里的树木 randomForest.init(dataTable); //将加入数据的实体类一条条插入森林中 randomForest.insert(Object object); //森林进行学习 randomForest.study(); //插入特征数据,森林对该数据的最终分类结果进行判断 randomForest.forest(Object objcet); ``` * 增加DNN神经网络深度 ``` java templeConfig.setDeep(int deep); ``` >若不设置默认深度为2,设置的深度越深则意味着准确率也越高,但同时也意味着你需要更多的训练图片去训练 >增加一层深度,训练图片的数量至少乘以3,否则准确度不仅不会增加,反而会下降 >>优点:更深的深度准确率可以无限接近100%,我们只要训练量足够大,我们就可以更深,越深越无敌 >>>缺点:增加深度意味着成几何倍数提升的训练量,同时也意味着过拟合的风险 ### 什么样的图片会严重影响准确率 * 训练图片或者识别图片有,比较大片的遮盖,暗光,阴影,或者使图片模糊的情况,识别和训练都会有严重的干扰 * 训练图片要求会比较高,要求若物体无背景则扣干净,有背景的话使用统一背景不要变动,不要一个训练一个物体有很多种背景 * 训练物体图片若有背景最好垫张白纸,纯白和纯色的背景干扰度最小,纯白最优 * 识别图片的拍摄设备最好有补光灯,不要让拍摄物体有大片阴暗。除非你同时也训练阴暗图片,当然那样的话训练量太大不推荐,也没必要 * 若使用定位与多物体识别功能,请将训练物体的图片背景扣干净,或保证RGB纯白色号背景即0XFFFFFF * 某两种物体的图片太过相似即长的几乎一模一样,区别点特别小或者微弱,识别不出来,就好比同卵双胞胎你也很难做出区分 ### 常见抛错 * error:Wrong size setting of image in templateConfig * 原因是模版配置类图片宽高设置相差太大 ` templeConfig.init(StudyPattern.Accuracy_Pattern, true, width, height, 1);` ##### 最终说明 * TempleConfig():配置模版类,一定要静态在内存中长期持有,检测的时候不要每次都NEW, 一直就使用一个配置类就可以了。 * Operation():运算类,除了学习可以使用一个以外,用户每检测一次都要NEW一次。 因为学习是单线程无所谓,而检测是多线程,如果使用一个运算类,可能会造成线程安全问题 ##### 精准模式和速度模式的优劣 * 速度模式学习很快,但是检测速度慢,双核i3检测单张图片(1200万像素)单物体检测速度约800ms. 学习1200万像素的照片物体,1000张需耗时1-2小时。 * 精准模式学习很慢,但是检测速度快,双核i3检测单张图片(1200万像素)单物体检测速度约100ms. 学习1200万像素的照片物体,1000张需耗时5-7个小时。 ##### 本包为性能优化而对AI算法的修改 * 本包的自然语言是通过内置分词器进行语句分词,然后再通过不同分词的时序进行编号成离散特征,最后进入随机森林分类 * 本包对图像AI算法进行了修改,为应对CPU部署。 * 卷积层不再使用权重做最终输出,而是将特征矩阵作出明显分层的结果。 * 卷积神经网络后的全连接层直接替换成了LVQ算法进行特征向量量化学习聚类,通过卷积结果与LVQ原型向量欧式距离来进行判定。 * 物体的边框检测通过卷积后的特征向量进行多元线性回归获得,检测边框的候选区并没有使用图像分割(cpu对图像分割算法真是超慢), 而是通过Frame类让用户自定义先验图框大小和先验图框每次移动的检测步长,然后再通过多次检测的IOU来确定是否为同一物体。 * 所以添加定位模式,用户要确定Frame的大小和步长,来替代基于图像分割的候选区推荐算法。 * 速度模式是使用固定的边缘算子进行多次卷积核,然后使用BP的多层神经网络进行强行拟合给出的结果(它之所以学习快,就是因为速度模式学习的是 全连接层的权重及阈值,而没有对卷积核进行学习) * 本包检测使用的是灰度单通道,即对RGB进行降纬变成灰度图像来进行检测(RGB三通道都算的话,CPU有些吃不住)。 * 若使用本包还有疑问可自行看测试包内的HelloWorld测试案例类,或者进群交流:561433236,提出问题