我使用 pandas 数据框作为临时数据存储实时将数据从一个数据库 (postgresql) 传输到另一个数据库 (greenplum)。通过 df.to_sql() 向目标数据库插入数据时遇到类型不匹配错误:
psycopg2.errors.DatatypeMismatch 列“created_at”的类型为 bigint,但表达式的类型为文本
我使用 dtypes 推导了数据帧数据类型,结果发现除了一列之外的所有列都变得简单object
。
在这次讨论的帮助下,我们能够编写工作代码,并明确指示 dtype 中 to_sql 的键:
dtypes = {
"product_id": sqlalchemy.types.BIGINT(),
"id": sqlalchemy.types.VARCHAR(length=256),
"created_at": sqlalchemy.types.BIGINT()
# и другие колонки
}
df.to_sql(
table,
db_engine,
if_exists='replace',
index=False,
schema=TMP_SCHEMA,
method='multi',
chunksize=CHUNKSIZE,
dtype=dtypes
)
但是,此方法不适合进一步处理多个表 - 我想自动替换源列的数据类型。
上面的答案提供了映射csv 第一行的示例。在我的数据库中,可能存在NULL,这将阻止我们确定数据类型。有没有办法解决保留原始数据类型的问题,而不必为每个表手动指定它们?
根据@strawdog的提示,PostgreSQL 中列类型的数据可以从系统表中获取
information_schema.columns
。为此,有data_type和udt_name列- 我发现 udt_name 中的数据很方便:结果,我们得到一个字典
column_types
,其中键是列的名称,值是它们的类型。我们使用生成的字典将字符串替换为来自 SQLAlchemy 的类的数据类型名称:我们可以将新字典作为参数传递给
dtype
df.to_sql() 函数,我们用它来将数据发送到另一个数据库 - pandas 将指示传递的数据类型。