据我了解,一个类型通常integer重 4 个字节,包括unsigned integer. 但是在某些情况下,根据处理器的位数integer,它可以同时具有 2 个字节和 8 个字节。我不明白位数如何影响整数类型的大小以及它对开发人员有什么影响,除了它可以适应更广泛的数字(或更小)?
UPD
x32将程序从 翻译为是什么意思x64?粗略地说,这些是类型的用途x64?x64如果我理解正确,那么编写的程序无法运行的原因x32是数据类型的内存开销?那为什么我们可以Visual Studio选择在什么位深度下做build呢?这将如何影响程序本身的大小以及普通数据类型的大小?
要理解这一点,最好用汇编程序编写几个程序,例如一个简单的计算器。
类型大小不同的主要原因
int通常在于处理器架构的机器字的字节数(即寄存器的大小),以及直接在编译器中。通常的介绍如下:
对 64 位操作系统的需求以及随之而来的处理器架构的使用源于内存的增长。事实上,32 位操作系统只允许您处理 4 GB 的 RAM,因为。
2^32 = 4294967296字节。x86 架构处理器寄存器
根据使用的数据模型,基本类型的大小之间有这样一个对应表:
数据模型通常不直接与硬件(处理器容量)相关联,而是取决于所使用的操作系统(如果存在)。同时,很明显在 32 位处理器上运行 64 位操作系统是不可能的,但情况恰恰相反。
选择特定编译器实现(即针对特定平台)中基本类型的大小以提供最佳性能。
除了增加基本类型的取值范围外,更大的位宽允许更多的内存被寻址。例如,在 32 位上,您可以寻址不超过 4Gb,而在 64 位上,您可以寻址到 16 Eb。
当他们谈论将程序从
x32to翻译时x64,他们的意思是,首先,该程序应该在 64 位环境中工作。那些。改变类型的大小不会破坏任何东西。当初始设计假定基本类型的大小固定时,通常会出现这类问题,例如指针始终为 4 字节。当在 64 位模式下构建时,它“突然”变大 2 倍,程序就开始崩溃。因此,为了使程序在
x32↔之间可移植x64,如有必要,以确保所需的计算位深度,您应该依赖来自 的类型<cstdint>。