首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大数据-BigData

    DataNucleus JDO基础入门

    DataNucleus 对您几乎没有任何影响。 如果您尚未提供默认构造函数,则 DataNucleus 增强器提供添加默认构造函数的功能。 对于您使用的任何数据存储,您都需要 javax.jdo 以及 datanucleus-api-jdo、datanucleus-core 和 datanucleus-XXX jar。 datanucleus-core.jar :它提供了基本的 DataNucleus 持久化机制,所有 DataNucleus 插件都需要它。 DataNucleus JDO 提供了自己的字节码增强器,用于检测/增强您的类(在 datanucleus-core.jar 中),这包含在 DataNucleus AccessPlatform zip 、datanucleus-api-jdo.jar 和 datanucleus-{datastore}.jar(对于您正在使用的数据存储,例如使用 RDBMS 时的 datanucleus-rdbms.jar

    1.7K20编辑于 2022-01-19
  • 来自专栏挖掘大数据

    常见的3种Hive参数配置方法

    如果set后面什么都不添加,这样可以查到Hive的所有属性配置,如下: [java] hive> set;   datanucleus.autoCreateSchema=true datanucleus.autoStartMechanismMode =checked   datanucleus.cache.level2=false datanucleus.cache.level2.type=none   datanucleus.connectionPoolingType =DBCP   datanucleus.identifierFactory=datanucleus   datanucleus.plugin.pluginRegistryBundleCheck=LOG   datanucleus.storeManagerType=rdbms   datanucleus.transactionIsolation=read-committed   datanucleus.validateColumns =false datanucleus.validateConstraints=false datanucleus.validateTables=false ....................

    2.8K100发布于 2018-01-19
  • 来自专栏我是攻城师

    Spark SQL+Hive历险记

    -3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java -3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java -3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java -3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java -3.2.6.jar, lib/datanucleus-rdbms-3.2.9.jar, lib/datanucleus-core-3.2.10.jar, lib/mysql-connector-java

    1.5K50发布于 2018-05-14
  • 来自专栏宋先生的Coding之旅

    Hive 安装(单机版)

    </name> <value>false</value> </property> <property> <name>datanucleus.fixedDatastore </name> <value>false</value> </property> <property> <name>datanucleus.autoCreateSchema </name> <value>true</value> </property> <property> <name>datanucleus.schema.autoCreateAll </name> <value>true</value> </property> <property> <name>datanucleus.autoCreateTables </name> <value>true</value> </property> <property> <name>datanucleus.autoCreateColumns

    1.7K10发布于 2020-02-18
  • 来自专栏SRE运维实践

    hadoop生态之hive

    :1187) at org.datanucleus.NucleusContext.initialise(NucleusContext.java:356) at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration (AbstractTable.java:760) at org.datanucleus.store.rdbms.table.AbstractTable.executeDdlStatementList :3190) at org.datanucleus.store.rdbms.RDBMSStoreManager$ClassAdder.run(RDBMSStoreManager.java:2841) ) at org.datanucleus.store.rdbms.RDBMSStoreManager.addClasses(RDBMSStoreManager.java:1605) at org.datanucleus.store.AbstractStoreManager.addClass (AbstractStoreManager.java:954) at org.datanucleus.store.rdbms.RDBMSStoreManager.getDatastoreClass(

    82830发布于 2021-03-04
  • 来自专栏Hadoop集群运维-大数据平台运维实战

    为 Hive 配置 postgres 或 MySQL 作为元数据库

    (NucleusJDOHelper.java:671) ~[datanucleus-api-jdo-4.2.4.jar:?] at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration(JDOPersistenceManagerFactory.java :830) ~[datanucleus-api-jdo-4.2.4.jar:?] :334) ~[datanucleus-api-jdo-4.2.4.jar:?] :213) ~[datanucleus-api-jdo-4.2.4.jar:?]

    3.7K20编辑于 2022-06-07
  • 来自专栏软件开发-青出于蓝

    Hive远程模式安装

    appender.DRFA.strategy.max = 30 # list of all loggers loggers = NIOServerCnxn, ClientCnxnSocketNIO, DataNucleus logger.ClientCnxnSocketNIO.name = org.apache.zookeeper.ClientCnxnSocketNIO logger.ClientCnxnSocketNIO.level = WARN logger.DataNucleus.name = DataNucleus logger.DataNucleus.level = ERROR logger.Datastore.name = Datastore logger.Datastore.level

    1.5K20发布于 2019-07-30
  • 来自专栏踏歌行的专栏

    Hive-1.2.1_01_安装部署

    (PluginManager.java:325) 73 at org.datanucleus.store.AbstractStoreManager.registerConnectionFactory (AbstractStoreManager.java:282) 74 at org.datanucleus.store.AbstractStoreManager. <init>(AbstractStoreManager.java:240) 75 at org.datanucleus.store.rdbms.RDBMSStoreManager. :1187) 83 at org.datanucleus.NucleusContext.initialise(NucleusContext.java:356) 84 at org.datanucleus.api.jdo.JDOPersistenceManagerFactory.freezeConfiguration (ConnectionFactoryImpl.java:131) 89 at org.datanucleus.store.rdbms.ConnectionFactoryImpl.

    74250发布于 2020-10-15
  • 来自专栏Albert陈凯

    2019-05-31 ojdbc6 安装到本地maven仓库

    --</repository>--> <repository> <id>Datanucleus</id> <name>Datanucleus</name> <url>http://www.datanucleus.org/downloads/maven2/</url> </repository> <repository> <id>

    97940发布于 2019-06-02
  • 来自专栏祝威廉

    CarbonData集群模式体验

    运行CarbonData 在 SPARK_HOME/lib 下还有三个datanucleus开头的包,我们也通过--jars 参数加上 . 2.10-0.1.0-SNAPSHOT-shade-hadoop2.6.0.jar,/Users/allwefantasy/Softwares/spark-1.6.1-bin-hadoop2.6/lib/datanucleus-api-jdo -3.2.6.jar,/Users/allwefantasy/Softwares/spark-1.6.1-bin-hadoop2.6/lib/datanucleus-core-3.2.10.jar,/Users /allwefantasy/Softwares/spark-1.6.1-bin-hadoop2.6/lib/datanucleus-rdbms-3.2.9.jar,/Users/allwefantasy -3.2.6.jar SPARK_HOME/lib/datanucleus-core-3.2.10.jar SPARK_HOME/lib/datanucleus-rdbms-3.2.9.jar 然后就运行起来了

    2.2K20发布于 2018-08-27
  • 来自专栏最新最全的大数据技术体系

    Hudi数据湖技术引领大数据新风口(三)解决spark模块依赖冲突

    groupId> ​ <artifactId>*</artifactId> ​ </exclusion> ​ <exclusion> ​ <groupId>org.datanucleus </groupId> ​ <artifactId>datanucleus-core</artifactId> ​ </exclusion> ​ <exclusion> ​ groupId> ​ <artifactId>*</artifactId> ​ </exclusion> ​ <exclusion> ​ <groupId>org.datanucleus </groupId> ​ <artifactId>datanucleus-core</artifactId> ​ </exclusion> ​ <exclusion> ​

    47530编辑于 2023-07-28
  • 来自专栏个人分享

    spark IDEA开发环境搭建及运行问题

    jar包(等下再一一说明)  包括scala,spark-assembly-1.4.1-hadoop2.5.0-cdh5.2.1.jar(按照你的spark和hadoop版本),还有在spark的lib下datanucleus 如下图的错误,是因为声明hivecontext时没有找到hive的metastore,所以一定要引入datanucleus的jar,将hive下的 hive-site-xml的配置文件放入项目中,引入mysql

    1.3K30发布于 2018-09-06
  • 来自专栏大数据杂货铺

    HMS数据库设置和优化

    javax.jdo.option.ConnectionPassword</name> <value>mypassword</value> </property> <property> <name>datanucleus.autoCreateSchema </name> <value>false</value> </property> <property> <name>datanucleus.fixedDatastore</name> <value> true</value> </property> <property> <name>datanucleus.autoStartMechanism</name> <value>SchemaTable< async.exec.threads 8192 hive.server2.async.exec.wait.queue.size 8192 hive.server2.thrift.max.worker.threads 8192 datanucleus.connectionPool.maxPoolSize

    1.6K30发布于 2021-08-20
  • 来自专栏小勇DW3

    Windows环境下安装Hadoop+Hive的使用案例

    DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables" --> 108 109 <property> 110 111 <name>datanucleus.autoCreateSchema</name> 112 113 <value>true</value> 114 115 </property> 116 117 <property> 118 119 <name>datanucleus.autoCreateTables</name> 120 121 <value>true</value> 122 123 </property> 124 125 <property> 126 127 <name>datanucleus.autoCreateColumns

    5.1K20发布于 2019-05-15
  • 来自专栏写字母的代码哥

    Hadoop-2.6.0为基础的Hive安装

    javax.jdo.option.ConnectionPassword</name> <value>hadoop01</value> </property> <property> <name>datanucleus.autoCreateSchema </name> <value>false</value> </property> <property> <name>datanucleus.autoCreateTables

    74020发布于 2020-09-23
  • 来自专栏数据仓库践行者

    flink_sql_client 1.10 与 hive集成 读取实时数据

    2.3.4.jar$HIVE_HOME/lib/hive-shims-common-2.3.4.jar$HIVE_HOME/lib/antlr-runtime-3.5.2.jar$HIVE_HOME/lib/datanucleus-api-jdo -4.2.4.jar$HIVE_HOME/lib/datanucleus-core-4.1.17.jar$HIVE_HOME/lib/datanucleus-rdbms-4.1.19.jar$HIVE_HOME

    2.7K60发布于 2020-04-18
  • 来自专栏大数据-BigData

    hive metastore 3.0介绍

    Metastore 通过 DataNucleus 将对象定义保存到关系数据库 (RDBMS),DataNucleus 是一个基于 Java JDO 的对象关系映射 (ORM) 层。 datanucleus.schema.autoCreateAll datanucleus.schema.autoCreateAll false 如果不存在,则自动在启动时在 RDBMS 中创建必要的模式 javax.jdo.option.ConnectionUserName User name to connect to the RDBMS with 支持的RDBMSs 由于 Metastore 使用 DataNucleus 与 RDBMS 进行通信,因此理论上 DataNucleus 支持的任何存储选项都可以与 Metastore 一起使用。

    2.4K10编辑于 2022-01-19
  • 来自专栏小道

    Hive参数调优

    :使用连接池来访问JDBC metastore,默认是DBCP; datanucleus.validateTables:检查是否存在表的schema,默认是false; datanucleus.validateColumns :元数据存储类型,默认rdbms; datanucleus.autoCreateSchema:在不存在时是否自动创建必要的schema,默认是true; datanucleus.aotuStartMechanismMode :如果元数据表不正确,抛出异常,默认是checked; datanucleus.transactionIsolation:默认的事务隔离级别,默认是read-committed; datanucleus.cache.level2 :使用二级缓存,默认是false; datanucleus.cache.level2.type:二级缓存的类型,有两种,SOFT:软引用,WEAK:弱引用,默认是SOFT; datanucleus.identifierFactory :id工厂生产表和列名的名字,默认是datanucleusdatanucleus.plugin.pluginRegistryBundleCheck:当plugin被发现并且重复时的行为,默认是LOG

    2.1K30发布于 2021-04-13
  • 来自专栏开源部署

    Zeppelin0.7.2结合hive解释器进行报表展示

    jackson-jaxrs-1.9.13.jar            mysql-connector-java-5.1.38.jar api-util-1.0.0-M20.jar                datanucleus-api-jdo           jackson-mapper-asl-1.9.13.jar        netty-3.6.2.Final.jar asm-3.1.jar                            datanucleus-core             jackson-mapper-asl-1.9.2.jar        opencsv-2.3.jar asm-3.2.jar                            datanucleus-rdbms

    59020编辑于 2022-07-24
  • 来自专栏北漂的我

    CentOS 6.9 中 搭建 Hive

    fs.defaultFS</name> <value>hdfs://bigdata:9000</value> </property> <property> <name>datanucleus.autoCreateSchema </name> <value>true</value> </property> <property> <name>datanucleus.autoStartMechanism </name> <value>SchemaTable</value> </property> <property> <name>datanucleus.schema.autoCreateTables

    82730发布于 2019-05-28
领券