我需要创建一个事务并执行。insertInto()用于某些表的多个未指定字段。我有一个问题,事务运行成功,但没有存储任何记录。我认为根本条款是不恰当的执行。insertInto()方法或DSLContext与包装器配置的交互失败。如果有任何建议,我将不胜感激。
我有两个类中的两个方法(表处理和DAL)。首先创建事务并发送到DAL类字段以插入。第二,DAL类,用于插入新字段。
public Boolean insertToMainDB(List<TableForMainDb> mainTables) throws AppDataAccessLayerException {
Boolean InsertTransactSuccessFlag = false;
try {
TransactionalCallable <Boolean> transactional = new TransactionalCallable<Boolean>() {
@Override
public Boolean run(Configuration configuration) throws Exception {
for (TableForMainDb table : mainTables) {
table.getRecorder().recordToDB(table, configuration);
}
return true;
}
};
InsertTransactSuccessFlag = context.transactionResult(transactional);
} catch (DataAccessException ex) {
throw new AppDataAccessLayerException(ex);
}
return InsertTransactSuccessFlag;
}
DAL类中的第二种方法:
public boolean recordToDB(TableForMainDb mainDBtable, Configuration configuration) {
boolean InsertFlag = false;
for (String key : mainDBtable.fields.keySet()){
//using(configuration).
insertInto (
table(mainDBtable.getTableName())
,field(mainDBtable.fields.get(key).getFieldName())
,value(mainDBtable.fields.get(key).getFieldValue())
).attach(configuration);
InsertFlag = true; //TBD
}
return InsertFlag;
}
事务运行成功,但没有将记录插入到DB。
在调试模式下,我看到DSLContext和Configuration的对象已满,并且包含插入日期的记录(字段)。垃圾堆在下面。事务字段在上下文中为false。
配置默认配置[connected=true,transactional=true,dialogue=POSTGRES,data={org.jooq.Configuration….},设置=。。。
DSLContext DefaultConfiguration[connected=true,transactional=false,dialogue=POSTGRES,data={},settings=。。。
感谢卢卡斯的评论和伟大的JOOQ。
我们实现插入为
.insertInto(Table<Record>, Fields[], Object[] ).execute()
我们将字段准备为字段[]数组,将值准备为对象[]数组,然后将其传递给。插入()
fieldsAndValuesObject是字段和值(add/get/set)的包装类的对象。
DSL.using(configuration).insertInto(DSL.table(tableName),
fieldsAndValuesObject.getArrayAllFields())
.values(fieldsAndValuesObject.getArrayAllValues()
)
.execute();
你永远不会调用查询。在
Insert
语句上执行()
我把这三门课分别放在不同的文件中 我有下面的映射器 这目前仅映射lastName并起作用,我想将Book中的作者字符串映射为 我怎么能这么做?我在MapStruct文档中找不到任何东西。
给定:我在Kafka中有两个主题,假设主题A和主题B。Kafka流从主题A中读取一条记录,对其进行处理,并产生与所消耗记录相对应的多条记录(假设recordA和recordB)。现在的问题是我如何使用Kafka流来实现这一点。 在这里,读取的记录是消息;处理之后,它返回一个消息列表。如何将此列表划分为两个生产者流?任何帮助都将不胜感激。
我正在尝试访问record2中的“AccountNumber”字段的数据作为“属性”。文件格式为平面文件(format=“fixedlength”)。请帮帮我。 示例数据:
问题内容: 我想知道是否存在一种将多记录JSON文件(每行是一个JSON dict)读入熊猫数据帧的内存有效方式。下面是带有工作解决方案的2行示例,我可能需要非常多的记录。示例用途是处理Hadoop Pig JSonStorage函数的输出。 问题答案: 注意:(自0.19.0开始)现在支持行分隔的json : 或使用文件/文件路径而不是json字符串: 这将取决于您DataFrames的大小,该
例如,我有一个类包含name和surname字段。 我想从的中收集一个的(名字和姓氏都在一起),但似乎无法对每个列表使用两次map或无法对每个列表使用两次stream。 我做错了什么?
问题内容: 所有,我必须创建一个具有基本架构的数据库。该数据库将很大(超过100GB),并将用作数据仓库。现在,该数据库的创建当前正在通过C#代码“一次命中”执行。从许多不同的来源中提取数据。由于数据量巨大,这种创建引起了一些问题。已经决定,与其一口气创建一个数据库,不如一次创建一个数据库。到 创建几个包含核心数据表的较小数据库。 将较小的数据库合并为一个较大的数据库。 建立架构/添加相关约束。