当前位置: 首页 > 知识库问答 >
问题:

如何修复数据过长的列

慕容明煦
2023-03-14

我正在为一个学校项目构建一个数据库,我做了所有的列,但是我得到了一个错误。

“错误1406(22001):第1行的‘stu first\u name’列的数据太长”

我做了一些搜索,发现varchar的错误很常见,人们说要切换到longtext,但项目说必须是char。

create table students(
    -> stu_id char,
    -> stu_first_name char,
    -> stu_last_name char,
    -> address char,
    -> city char,
    -> state char,
    -> zip char,
    -> major char,
    -> email char,
    -> phone varchar(255)

是我写专栏时的代码。

共有1个答案

仉磊
2023-03-14

您使char列的长度正好为1个字符。我不确定这是否足以保存一个姓名或地址:D

只需将长度添加到列类型定义中,如<代码>stu first\U名称-

顺便说一句,varchar仍然是一个更好的选择,因为这些值没有正确填充空间来填充整个指定的列大小...想象一下每次最多使用30个字符...对于“Rob”或“Hal”或...“Ben”来说是相当浪费的

 类似资料:
  • 本文向大家介绍如何通过重复行数来增加R数据帧的长度?,包括了如何通过重复行数来增加R数据帧的长度?的使用技巧和注意事项,需要的朋友参考一下 如果我们坚信新的数据收集将产生相同类型的数据,则我们可能希望在R中将数据帧扩展为更多行。虽然不建议这样做,因为由于此过程,我们在数据中失去了公正性,但这样做是为了节省时间和金钱,而这些钱和金钱将用于投资新的数据收集。在R中,我们可以将rep与seq_len函数

  • 我的问题是,当我上传一个文件超过我在脚本中设置的限制(5 MB)时,它会在网站顶部显示此警告: 警告:第0行未知中32485176字节的POST内容长度超过了20971520字节的限制 例如,在这里,我上传了一个文件超过(30 MB),但当我上传一个文件超过(5 MB),小于30(或没有那么大)它不显示警告,只显示我想要的代码错误: 我正在localhost,这个错误每次都出现,我知道如何通过修改

  • Spark版本:1.6.2 火花配置: > 执行人:18 每个执行者的内存:30g 核心x执行者:2 Kafka配置: 分区: 18 背景: 我有一个Spark流式传输管道,它使用来自Kafka的新Direct方法而不是接收器。这个管道从kafka接收数据,转换数据,并插入到Hive。我们发布了用于插入数据的触发器的局部性级别等于,而不是或。此外,输入大小列显示网络信息而不是内存。我设置了配置变量

  • 我有一个搜索栏,让用户过滤基于他们的条目使用角度。现在我希望能够在用户输入的搜索词与数组中的任何内容都不匹配时显示类似“Nothing match your search”的消息。 控制器 是否可以知道过滤数组的长度,以便我可以显示消息?

  • 问题内容: 在Ubuntu中运行flexget Python脚本,出现错误: 问题答案: 如果收到该错误,则说明Python模块的编译版本(.pyc文件)可能已损坏。Gentoo Linux提供了,但是在Debian中,更简单的解决方法是:删除.pyc文件。如果您不知道pyc,只需删除所有它们(以root用户身份):

  • 我在项目中使用liquibase,到目前为止它工作得很好。 我添加了一个新的变更集,它在本地工作得很好,一旦部署,容器的状态就会变成下面的语句:“LiquiBase:Waiting for changelog Lock...”。 未设置部署的限制资源。 表“DatabaseChangelogLock”的更新不起作用,因为吊舱一直锁定它。 我该如何解决这个问题?