博客
关于我
android studio 2.2.3 导入第三方.so,并调用方法(无cpp、c源码)
阅读量:172 次
发布时间:2019-02-28

本文共 659 字,大约阅读时间需要 2 分钟。

        厂家只提供了.so文件、Demo(说明文档)的情况下,没有jar包,如何调用方法的总结。

        1. 创建NDK工程,把工程自带的删掉,留着其实也不影响。

        2. 在项目下的 app/libs 下创建 armeabi armeabi-v7a x86 三个文件夹(此处必须是三个,很多博客和文档只说了 armeabi,但是在有的版本会报错,这是个坑!x86 知名见意,也创建为好)。并把我们的 libxxxxxx.so 粘贴到这三个目录下。

        3. gradle 和 buildTypes 同级下 加

                SourceSets {

                        main {

                               jniLibs.srcDirs = ['libs']

                        }

                }

        4. 不用修改 Cmake 文件,也不用再修改 gradle 了

       5. 编译一下没问题继续下面的步骤。

       6. 这里就需要看 文档 或者注意 Demo 了。仿照着我们创建的NDK的例子,把 System.loadLibrary("xxx"); 改成我们需要的,切记!:使用 jni 的类的包名,必须和封装好的,在 .so 里面的一样。 看文档 以及 问提供 .so 厂家的技术,这里错了会报错找不到类什么的。

       7. 完成之后就像调用我们自己的 jni 一样使用了。但是方法名是红色的,不要紧,编译是正常的,运行测试也OK。完美~

        PS:做NDK开发一定会遇到各种各样的坑,你也许按照我的方式下去依然会报错,仔细看一下报错的原因,慢慢的来一定会解决的!这是我最近做的第二个和NDK相关的经验总结了,爬的坑多了,才知道坑都在哪里。

转载地址:http://hgsc.baihongyu.com/

你可能感兴趣的文章
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>