学习目标:
什么是内存?有何作用?
内存可存放数据。程序执行前__需要先放内存中才能被CPU处理__——缓和CPU与硬盘之间的速度矛盾。
【思考】在多道程序程序下,系统会有多个进程并发执行,也就是说会有多个程序的数据要同时放到内存中。那么,如何区分各个程序的数据是放在什么地方呢?
答:给内存的存储单元编地址。
【补充】几个常用的数量单位。
一部手机有4GB内存,是什么意思?
答:是指该内存中可以存放4*230个字节。如果是按字节编制的话,也就是有4*230 = 2^32个“小房间”。
这么多“小房间”,需要232个地址才能一一标识,所以地址需要用32个二进制位来表示(0~232-1)。
【注】有的题目会告诉我们内存的大小,让我们确定地址长度应该是多少?(即要多少个二进制为才能表示相应数目的存储单元)。
可见,我们写的代码要翻译成CPU能识别的指令。这些指令会告诉CPU应该去内存的那些地址读/写数据,这个数据应该做什么样的处理。在这个例子中,我们默认让__这个进程的相关内容从地址#0开始连续存放,__指令中的地址参数直接给出了变量x的实际存放地址(物理地址)。
【思考】如果这个进程不是从地址#0开始存放的,会影响指令的正常执行吗?
情况一:程序的装入模块从地址0开始装入
C语言程序经过编译、链接处理后,生成接入模块(.exe)即可执行文件:
int x = 10;
x = x+1;
程序经过编译、链接后生成的指令中指明的是逻辑地址(相对地址),即:相对于进程的起始地址而言的地址。
情况二:程序的装入模块从地址不是从0开始装入(假设是从物理地址100装入)
所以说如果装入程序不是从物理地址0开始的,就会产生错误,因此在这一章节中有个很重要的知识点:如何将指令中的逻辑地址转为物理地址。
有三种策略进行转换:
__绝对装入:__在编译时,如果知道程序将放到内存中的那个位置,编译程序将产生绝对地址的目标代码。装入程序按照装入模块中的地址,将程序和数据装入内存。
Eg:如果知道装入模块要从地址为100的地方开始存放…
使用绝对装入,在程序编译的时候,由编译器将相对地址改为正确的地址,此时得的到装入模块的指令直接就使用了绝对地址。
那么当程序运行的时候就可以把程序的变量存放到一个正确的位置。
绝对装入有缺点,假如这个装入模块换一个电脑执行,那新电脑不让这个装入模块从物理地址100开始,那变量存储的就会不对。导致程序无法运行。
绝对装入只适用于单道程序环境。
?
__静态重定位:又称__可重定位装入。编译、链接后的装入模块的地址都是从0开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行“重定位”,将逻辑地址变换为物理地址(地址转换是在装入时一次完成的)。
静态重定位的特点是在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。作业一旦进入内存后,在运行期间就不能移动,也不能再申请内存空间。
动态重定位:又称__动态运行时装入。编译、链接后的装入模块的地址都是从0开始的。装入程序把装入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是__把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个__重定位寄存器__的支持。
重定位寄存器存放装入模块存放的起始位置,并且CPU在对内存地址访问的时候,它会把起始位置
和逻辑地址
进行相加,相加出来的地址就是最终访问的地址。
采用动态重定位时__允许程序在内存中发生移动。__
采用动态重定位有很多优点:
__编译:由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言__翻译为机器语言)。
__链接:__由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块装入(装载):由装入程序将装入模块装入内存运行。
其中链接由三种方式:
__静态链接:__在程序运行之前,先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块),之后不在拆开。
__装入时动态链接:__将各目标模块装入内存时,边装入边链接的链接方式。
__运行时动态链接:__在程序执行中需要该目标模块时,才对它进行链接。其优点是便于修改和更新,便于实现对目标模块的共享。
知识回顾:
操作系统作为系统资源的管理者,当然也需要对内存进行管理,那具体都要管些什么呢?
问题引入:游戏GTA的大小超过60GB,按理来说这个游戏程序运行之前需要把60GB
数据全部放入内存。然而,实际我的电脑内存才4GB,但为什么这个游戏可以顺利运行呢?
? ——————虚拟技术(操作系统的虚拟性)。
操作系统主要对内存进行管理如下(4个):
操作系统负责__内存空间的分配与回收。__
操作系统需要提供某种技术从逻辑上__对内存空间进行扩充__。(虚拟内存)
操作系统需要提供地址转换功能,负责进程的__逻辑地址__与__物理地址__的转换。
【复习】实现__逻辑地址__与__物理地址__的转换(三种载入方式):
上面说到了操作系统需要提供__内存保护__功能。保证各进程在各自存储空间内运行,互不干扰。
其中内存保护有两种方式:
__方法一:在CPU中__设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,CPU检查是否越界。
方法二:采用__重定位寄存器(又称__基址寄存器)和__界地址寄存器__(又称__限长寄存器__)进行越界检查。重定位寄存器中存放的是进程的__起始物理地址__。界地址寄存器中存放的是进程的__最大逻辑地址__。
知识回顾
学习目标:
在早期的计算机内存很小,比如IBM推出的第一台PC机最大只支持1MB大小的内存。因此会经常出现内存大小不够的情况。
后来为了解决内存不够用的情况,人们引入了__覆盖技术__,用来__解决“程序大小超过物理内存总和“的问题__。
__覆盖技术的思想:将__程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存。
内存中分为__一个”固定区“和__若干个”覆盖区“。
需要常驻内存的段放在”固定区“中,调入后就不在调出(除非运行结束)。
Eg:程序X的覆盖
覆盖技术的特征:__必须由程序员声明覆盖结构__操作系统完成自动覆盖。缺点:对用户不透明,增加了用户编程负担。
基于以上覆盖特征,覆盖技术只用于早期的操作系统中,现在已成为历史。
交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行的进程换入内存(进程在内存与磁盘间动态调度)。
(在进程中学习到进程的调度层次之中级调度就是为了实现交换技术而使用的调度策略)。
为什么挂起队列要常驻内存呢?
原因:因为进程被换出外存之后,必须要通过某种方式记录下来进程放在外存的什么位置,那这个信息就可以记录在与之进程对应PCB中,那操作系统就根据PCB中记录的信息对进程进行管理。
中级调度(内存调度),就是要决定将那个处于挂起状态的进程重新调入内存。
【复习】暂时换出外存等待的进程状态为挂起状态(suspend)。
挂起态分为两种:
【思考】
问题一解答:具有对换功能的操作系统中,通常把磁盘空间分为文件区和对换区两部分。文件区主要用于存放文件,主要追求存储空间的利用率,因此对文件区空间的管理采用离散分配方式;对换区空间只占磁盘空间的小部分,被换出的进程数据就存放在对换区。由于对换的速度直接影响到系统的整体速度,因此对换区空间的管理主要追求换入换出速度,因此通常对换区采用连续分配方式(学过文件管理章节后即可理解)。总之,对换区的I/0速度比文件区的更快。
问题二解答:交换通常在许多进程运行且内存吃紧时进行,而系统负荷降低就暂停。例如:在发现许多进程运行时经常发生缺页,就说明内存紧张,此时可以换出一些进程;如果缺页率明显下降,就可以暂停换出。
问题三解答: ①可优先换出阻塞进程;②可换出优先级低的进程;③为了防止优先级低的进程在被调入内存后很快又被换出,有的系统还会考虑进程在内存的驻留时间…
【强调】PCB会常驻内存,不会被换出外存。
连续分配:指为用户进程分配必须是一个连续的内存空间。
在单一连续分配方式中,内存被分为系统区和用户区。系统区通常位于内存的低地址部分,用于存放操作系统相关数据,用户区用于存放用户进程相关数据。
内存中只能有一道用户程序,用户程序独占整个用户区。
优点:实现简单,无外部碎片;可以采用覆盖技术扩充内存;不一定需要采取内存保护(eg:早期的PC操作系统MS-DOS)。
**缺点:**只能用于单用户、单任务的操作系统中;有内部碎片;存储器利用率极低。
**内部碎片:**分配给某进程的内存区域中,如果有些部分没有用上,就是”内部碎片“。
20世纪60年代出现了支持多道程序的系统,为了能在内存中装入多道程序,且这些程序之间又不会相互干扰,于是将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式。
固定分区分配有两种方式:
分区大小相等:缺乏灵活性,但是很适合用于用一台计算机控制多个相同对象的场合。(比如:炼钢厂有n个相同的炼钢炉,就可把内存分为n个大小相等的区域存放n个炼钢炉控制程序)。
每个分区的大小相等。
**分区大小不等:**增加了灵活性,可以满足不同大小的进程需求。根据常在系统中运行的作业大小情况进行划分
操作系统需要建立一个数据结构——分区说明表,来实现各个分区的分配与回收。每个表项对应一个分区,通常按分区大小排列。每个表项包括对应分区的大小、起始地址、状态(是否已分配)。
当某用户程序要装入内存时,由操作系统内核程序根据用户程序大小检索该表,从中找到一个能满足大小的、未分配的分区,将之分配给该程序,然后修改状态”已分配“。
优点:实现简单,无外部碎片。
缺点:
动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程进入内存时,根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要。因此系统分区的大小和数目是可变的。
eg:假设某计算机内存大小为64MB,系统区8MB,用户区共56MB
【问题】
系统要用什么样的数据结构记录内存的使用情况?
数据结构有两种:
1)空闲分区表:每个空闲分区对应一个表项。表项中包含分区号、分区大小、分区起始地址等信息
2)空闲分区链:每个分区的起始部分和末尾部分分别设置前向指针和后向指针。起始部分处还可记录分区大小等信息。
当很多个空闲分区都能满足需求时,应该选择那个分区进行分配?
如下:进程5(4MB)应该用最大的分区进行分配?还是用最小的分区进行分配?又或是用地址最低的部分进行分配?
由此问题可以引出动态分区分配算法。
把一个新作业装入内存时,须按照一定的动态分区分配算法,从空闲分区表(或空闲分区链)中选出一个分区分配该该作业。由于分配算法对系统性能有很大的影响,因此人们对它进行了广泛的研究。
如何进行分区的分配与回收操作?
这里以空闲分区表为例,空闲分区链也是一样的道理。
分配的两种情况:
第一种情况:进程5(4MB)分配到内存分区中,并更新分区表:
第二种情况:进程5(4MB)分配到内存分区中,并更新分区表:
回收的情况:
情况一:回收区的后面有一个相邻的空闲分区
情况二:回收区的前面有一个相邻的空闲分区。
情况三:回收区的前、后各有一个相邻的空闲分区。
情况四:或收区的前、后都没有相邻的空闲分区。
这里新增一个表项
【注】各表项的顺序不一定按照地址递增顺序排序,具体的排列方式需要依据动态分区分配算法来确定。
**内部碎片:**分配给某进程的内存区域中,如果有些部分没有用上。
**外部碎片:**是指内存中的某些空闲分区由于太小难以利用。
eg:如下举例:
但是我们会发现,空闲的6MB、10MB、4MB总和时20MB,可以发现正好可以满足进程1的需求。
那可以使用**紧凑(拼凑,Compaction)**技术来解决外部碎片。
【思考】”紧凑“之后需要做什么处理?
答:需要把各个进程的起始地址修改掉,进程的起始地址这个信息一般来说是存放在进程对应的PCB中。当进程要上CPU运行之前,会把进程的起始地址信息放到重定位寄存器里。
**动态分区分配算法:**在动态分区分配中,当很多个空闲分区都能满足需求时,应该选择哪个分区进行分配?
动态分区分配算法有4个:
**算法思想:**每次都从低地址开始查找,找到第一个能满足大小的空闲区。
如何实现:空闲分区以地址递增的次序排列。每次分配内存时顺序查找空闲分区链(或空闲分区),找到大小能满足要求的第一个空闲分区。
**算法思想:**由于动态分区分配是一种连续分配方式,为各进程分配的空间必须是连续的一整片区域。因此为了保证当“大进程”到来时能有连续的大片空间,可以尽可能多地留下大片地空闲区,即优先使用更小地空闲区。
如何实现:空闲分区按容量递增次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求地第一个空闲分区。
【注意】如果内存分配过程中,分区表容量不是递增的,需要重新排序空闲分区链,使之称为容量递增的分区链。
**缺点:**每次都选最小的分区进行分配,会留下越来越多的、很小的、难以利用的内存块。因此这种方法会产生很多的外部碎片。并且需要重新将空闲分区表排序,会降低系统开销。
因此引入最坏适应算法。
又称最大适应算法(largest Fit)
**算法思想:**为了解决最佳适应算法的问题——即留下太多难以利用的小碎片,可以在每次分配时优先使用最大的连续空闲区,这样分配后剩余的空闲区就不会太小,更方便使用。
如何实现:空闲分区按容量递减次序链接。每次分配内存时顺序查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
**缺点:**每次都选最大的分区进行分配,虽然可以让分配后留下的空闲区更大,更可用,但是这种方式会导致较大的连续空闲区被迅速用完。如果之后有“大进程”达到,就没有内存分区可用了。并且需要重新将空闲分区表排序,会降低系统开销。
**算法思想:**首次适应算法每次都从链头开始查找的。这可能会导致低地址部分出现很多小的空闲分区,而每次分配查找时,都要经过这些分区,因此也增加了查找的开销。如果每次都从上次查找结束的位置开始检索,就能解决上述问题。
如何实现:空闲分区以地址递增的顺序排列(可排成一个循环链表)。每次分配内存时从上次查找结束的位置开始查找空闲分区链(或空闲分区表),找到大小能满足要求的第一个空闲分区。
首次适应算法也隐含了一个最佳适应算法的优点:
首次适应算法每次都要从头查找,每次都需要检索低地址的小分区。但是这种规则也决定了当低地址部分有更小的分区可以满足时,会更有可能用到低地址部分的小分区,也会更有可能把高地址部分的大分区保留下来
**临近适应算法的缺点:**临近适应算法的规则可能会导致无论低地址、高地址部分的空闲分区都有相同的概率被使用,也就导致了高地址部分的大小区更可能被使用,划分为大小区,最后导致无大分区可用
可以看出,四种算法中,首次适应算法的效果反而更好。
将内存空间分为一个个大小相等的分区(比如:每个分区4KB),每个分区就是一个**”页框“(页框=页帧=内存块=物理块=物理页面)。每个页框有一个编号,即”页框号“(页框号=页帧号=内存块号=物理块号=物理页号),页框号从0开始**。
将进程的逻辑地址空间也分为与页框大小相等的一个个部分,每个部分称为一个**”页“或”页面“。每个页面也有一个编号,即”页号“,页号也是从0开始**。
操作系统以页框为单位为各个进程分配内存空间。进程的每个页面分别放入一个页框中。也就是说,进程的页面与内存的页框有一一对应的关系。
各个页面不必连续存放,可以放到不相邻的各个页框中。
为了能知道进程的每个页面在内存中存放的位置,操作系统要为每个进程建立一张页表。
注:页表通常存在PCB(进程控制块)中。
【思考】
Eg:假设某系统物理内存大小为4GB,页面大小为4KB,则每个页面项至少应该为多少字节?
内存块大小=页面大小=4KB=2^12B
——>4GB的内存总共会被分为:2^32 / 2^12 = 2^20个内存块。
——>内存块号的范围应该是0~2^20-1。
——>内存块号至少要用20bit来表示。
——>但是计算机是以字节为单位分配的,所以至少要用3B来表示块号(3*8bit=24bit)。
计算完块号的存储大小。
我们在来说页号的大小。
答:页号是不占用大小的。页表项连续存放,因此页号可以是隐含的,不占存储空间(类比数组)。
假设页表中的各页表项从内存地址为X的地方开始连续存放…
如何找到页号为i的页表项呢?
很简单:i号页表项的存放地址=X+3i。
所以,由于页号是隐含的,因此每个页表项占3B,存储整个页表至少需要3*(n+1)B。
【注意】页表记录的只是内存块号,而不是内存块的起始地址!
如果要求内存块的起始地址:A号内存块的起始地址 = A的块号*内存块大小。
进程在内存中连续存放时,操作系统是如何实现逻辑地址到物理地址的转换的?
将进程地址空间分页之后,操作系统该如何实现逻辑地址到物理地址的转换呢?
如果要访问逻辑地址A,则:
逻辑地址A对应的物理地址 = P号页面在内存中的起始地址+页内偏移量
其中在前面我们知道了某个页面在内存中起始地址的计算:内存块号*内存块大小。
那现在的问题是如确定一个逻辑地址对应的页号、页内偏移量?
Eg:在某计算机系统中,页面大小是50B。某进程逻辑地址空间大小为200B,则逻辑地址110对应的页号、页内偏移量是多少?
如何计算:
页号=110/50=2
页内偏移量=110/50=10
逻辑地址可以拆分为(页号、页内偏移量)。
通过页号查询页表,可知页面在内存中的起始位置。
然后利用页面在内存中的起始位置+页内偏移量=实际的物理地址
。
在计算机内部,地址是用二进制表示的,如果页面大小刚好是2的整数幂,则计算机硬件可以很快的把逻辑地址拆分为成(页号、页内偏移量)。
【结论一】如果每个页面大小为(2^k)B,用二进制数表示逻辑地址,则末尾k位即为页内偏移量,其余部分就是页号。
举几个例题:
【结论二】如果页面大小刚好是2的整数幂,则只需要那页表中记录的块号拼接上页内偏移量就能得到对应的物理地址。
【总结】页面大小刚好为2的整数幂有什么好处?
分页存储管理的逻辑地址结构如下所示:
地址结构包含两部分:前一部分为页号,后一部分为页内偏移量W。再上图所示例子中,地址长度32位,其中011位**“页内偏移量”**,或称**“页内地址”**;1231位为**“页号”**。
如果有k位表示“页内偏移量“,则说明该系统中一个页面的大小是2^k个内存单元(字节)。
如果有M位表示”页号“,则说明在该系统中,一个进程最多允许有2^M个页面。
【总结】【重要】页面大小<——>页内偏移量——>逻辑地址结构。
Tip:但有些题目页面大小可能不是2的整数幂,这种情况还是得用最原始的方法计算:
学习目标:重点理解、记忆基本地址变换机构(用于实现逻辑地址到物理地址的一组硬件机构)的原理和流程。
基本地址变换机构可以借助进程的页表将逻辑地址转换为物理地址。
通常会在系统中设置一个页表寄存器(PTR),存放页表在内存中的起始地址F和页表长度M。进程未执行时,页表的始址和页表长度放在进程控制块(PCB)中,当进程被调度时,操作系统内核会把它们放到页表寄存器中。
注意:页面大小是2的整数幂
设页面大小为L,逻辑地址A到物理地址E的变换过程如下:
详细分析如下:
在考试中,经常会给逻辑地址和页表,然后让计算对应的物理地址。
文字描述上面硬件实现从逻辑地址转换位物理地址的过程
设页面大小为L(字节),逻辑地址A到物理地址E的变换过程如下:
习题:若页面大小L位1字节,页号2对应的内存块号b=8,将逻辑地址A=2500转换为物理地址E。
这一题有等价描述:某系统按字节寻址(每个地址大小是一个字节),逻辑地址结构中,页内偏移量占10位,页号2对应的内存块号b=8,将逻辑地址A=2500转换为物理地址E。
【重要信息】页内偏移量占10位,说明一个页面的大小为(2^10)B = 1KB。
解题步骤:
计算页号、页内偏移量:(因为给的是十进制数字,所以需要用十进制算法)
页号P=A/L=2500/1024=2;页内偏移量W=A%L=2500%1024=452;
【容易忽略此步操作】根据题中条件可知,页号2没有越界,其存放的内存块号b=8
物理地址E=b*L+W=8*1024+425=8644。
可以发现,在分页存储管理(页式管理)的系统中,只要确定了每个页面的大小,逻辑地址结构就确定了。因此,页式管理中地址是一维的(一维是什么意思呢?就是说让CPU在进行逻辑地址转换为物理地址是,我们只需要告诉CPU一个信息,也就是逻辑地址得值信息即可)。即,只要给出一个逻辑地址,系统就可以自动地算出页号、页内偏移量两个部分,并不需要显式地告诉系统这个逻辑地址中,页内偏移量占多少位。
每个页表项的长度是相同的,页号是”隐含“的。
前面有个例题:假设某系统物理内存大小为4GB,页面大小为4KB的内存总共会被分为232/212=220个内存块,因此内存块号的范围是0~220-1。
因此至少要20个二进制位才能表示这么多的内存块号,因此至少要3个字节才够(每个字节8个二进制位,3个字节共24个二进制位)
各页表项会按顺序连续地存放在内存中如果该页表在内存中存放的起始地址为X,则M号页对应的页表项是存放在内存地址为X+3*M。
一个页面为4KB,则每个页面可以存放4096/3=1365个页表项,但是这个页面会剩余4096%3=1B页内碎片。
因此,1365号页表想项存放的地址为X+3*1365+1。
如果每个页表项占4个字节,则每个页框刚好可存放1024个页表项。
1024号页表项虽然是在下一个页框中的,但是它的地址依然可以用X+4*1024得出。
【结论】理论上,页表长度为3B即可表示内存块号的范围,但是,为了方便页表的查询,常常会让一个页表项占更多的字节,使得每个页面恰好可以装得下整数个页表项。
学习目标:
快表,又称联想寄存器(TLB,translation lookaside buffer),是一种访问速度比内存快很多的高速缓存(TLB不是内存!),用来存放最近访问的页表项的副本,可以加快地址变换的速度。与之对应,内存中的页表常称为慢表。
【注意】TLB和普通Cache的区别——TLB中只有表项的副本,而普通Cache中可能会有其它各种数据的副本。
我们来看一下为什么”快表“比”慢表“要快。
假设某进程执行过程中要依次访问:(0,0)、(0,4)、(0,8)这几个逻辑地址第一个参数为页号,第二个参数为页内偏移量。
第一步:首先访问(0,0)的逻辑地址
第二步:然后访问(0,4)
快表中存放的是页表的一部分副本。(如上图,快表中只有页号为0的页表项)。
文字描述引入快表后,地址的变换过程
①CPU给出逻辑地址,由某个硬件算得页号、页内偏移量,将页号与快表中的所有页号进行比较。
②如果找到匹配的页号,说明要访问的页表项在快表中有副本,则直接从中取出该页对应的内存块
号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,
若快表命中,则访问某个逻辑地址仅需一次访存即可。
③如果没有找到匹配的页号,则需要访问内存中的页表,找到对应页表项,得到页面存放的内存块
号,再将内存块号与页内偏移量拼接形成物理地址,最后,访问该物理地址对应的内存单元。因此,
若快表未命中,则访问某个逻辑地址需要两次访存(注意:在找到页表项后,应同时将其存入快表,
以便后面可能的再次访问。但若快表已满,则必须按照一定的算法对旧的页表项进行替换)
由于查询快表的速度比查询页表的速度快很多,因此只要快寿命中,就可以节省很多时间。
因为局部性原理,一般来说快表的命中率可以达到90%以上。
例:某系统使用基本分页存储管理,并采用了具有快表的地址变换机构。访问一次快表耗时1us,访问一次内存耗时100us。若快表的命中率为90%,那么访问一个逻辑地址的平均耗时是多少?
答:(1+100)*0.9+(1+100+100)*0.1=111us。
(1+100)\*0.9
。(1+100+100)\*0.1
。有的系统支持快表和慢表同时查找,如果是这样,
平均耗时应该是:(1+100)*0.9(100+100)*0.1=110.9us
唯一区别就是,快表和慢表同时查找时,不用再多耗时1us用于查快表了,下面用甘特图来分析:
为什么TLB只存放页表中的一部分,就可以让系统的效能提高那么多呢?其中原因就在于著名的局部性原理。
我们来看段代码例子:
**时间局部性:**如果执行了程序中的某条指令,那么不久后这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据很可能在次被访问。
**空间局部性:**一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存中都是连续存放的)
上小节介绍了的基本地址交换机构中,每次要访问一个逻辑地址,都需要查询内存中的页表。由于局部原理,可能连续很多查到的都是同一个页表项。
TLB和普通Cache的区别——TLB中只有表项的副本,而普通Cache中可能会有其它各种数据的副本。
学习目标:
前面学习到的单级页表有些许问题:
【思考】我们是如何解决进程在内存中必须连续存储的问题的?
答:将进程地址空间分页,并为其建立一张页表,记录各页面的存放位置。
同样的思路也可用于解决“页表必须连续存放”的问题,把必须连续存放的页表在分页。
可将长长的页表进行分组,使每个内存块刚好可以放入一个分组(比如上个例子中,页面大小4KB,每个页表项4B,每个页面可存放1K个页表项,因此每1K个连续的页表项为一组,每组刚好占一个内存块,再将各组离散地放到各个内存块中)。
另外,要为离散分配的页表再建立一张页表,称为页目录表,或称外层页表,或称顶层页表。
32位逻辑地址空间,页表项大小为4B,页面大小为4KB,则页面地址占12位。
我们先来看一下单级页表结构的逻辑地址结构:
那两级页表结构的逻辑地址:
在把大页表拆分为一个一个小页表之后,小页表的大小都是4KB,因此每一个小页表都可以依次存放到不同的内存中。
为了记录小页表之间的相对顺序以及它们在内存中存放的块号,因此需要为这些小页表再建立上一级的页表,这一上级的页表叫做页目录表(顶级页表/外层页表)。
那相应的小页表叫做二级页表。
那相应的两级页表结构的逻辑地址结构也要发生变化:
转换步骤:
Eg:将逻辑地址(0000000000,0000000001,111111111111)转换为物理地址(用十进制表示)。
那实现了二级页表之后,就解决了问题一:页表必须连续存放,因此当页表很大时,需要占用很多个连续的页框。
那如何解决问题二(没必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某个特定的页面)呢?
如下解决:可以在需要访问页面时才把页面调入内存(虚拟存储技术)。可以在页表项中增加一个标志位,用于表示该页面是否已经调入内存。
1、若采用多级页面机制,则各级页面的大小不能超过一个页面。
Eg:某系统按字节编制,采用40位逻辑地址,页面大小为4KB,页表项大小为4B,假设采用纯页式存储,则要采用()级页表,页内偏移量是()位?
答:页面大小=4KB=2^12B,按字节编制,因此页内偏移量为12位。页号=40-12=28位。
另外:页面大小=212B,页表项大小=4B,则每个页面可存放212/4=2^10个页表项。
因此各级页表最多包含210个页表项,需要10位二进制才能映射到210个页表项,因此每一级的页表对应页号应为10位。总共28位的页号至少要分三级。
2、两级页表的访存次数分析(假设没有快表机构)
- 第一次访存:访问内存中的页目录表
- 第二次访存:访问内存中二级页表
- 第三次访存:访问目标内存单元
【结论】N级页表访问一个逻辑地址需要N+1次访存。
学习目标:
进程的地址空间:按照程序自身的逻辑关系划分为若干个段,每个段都有一个段名(在低级语言中,程序员使用段名来编程)。
每段从0开始编制。
内存分配规则:以段为单位进行分配,每个段在内存中占据连续空间,但各段之间可以不相邻。
由于是按逻辑功能模块划分,用户编程更方便,程序的可读性更高。
如:
LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1
STORE 1,[X] | <B>; //将寄存器1的内容存入X分段的B单元中
在编译时,编译程序会将段名转换为段号。
CPU在执行指令时,是根据段号来区分各个段的。
分段系统的逻辑地址由短号(段名)和段内地址(段内偏移量)所组成。如:
短号的位数决定了每个进程最多可以分几个段。
段内地址位数决定了每个段的最大长度是多少。
在上述例子中,若系统是按字节寻址的,则:
段号和段内地址怎么来呢?如下:
问题:程序分多个段,各段离散地装入内存,为了保证程序能正常运行,就必须能从物理内存中找到各个逻辑段的存放位置。为此,需为每个进程建立一张段映射表,简称“段表”。
如下:
1、每个段对应一个段表项,其中记录了该段在内存中的起始位置(又称**“基址”)和段的长度**。在段中,需要显示段长的信息,而在页中不需要显示页面大小的信息,因为页面大小都是固定的。
2、各个段表项的长度是相同的。例如:某系统按字节寻址,采用分段存储管理,逻辑地址结构为(段号16位,段内地址16位),因此用16位即可表示最大段长。物理内存大小位4GB(可用32位表示整个物理内存地址空间)。因此,可以让每个段表项占16+32=48位(段长+基址),即6B。由于段表项长度相同,因此段号可以是隐含的,不占存储空间。若段表存放的起始位置位M,则K号段对应的段表项存放的地址为:M+K*6。
LOAD 1,[D] | <A>; //将分段D中A单元内的值读入寄存器1
上述指令,经过编译层序编译后,形成等价的机器指令:“取出段号为2,段内地址为1024的内存单元中的内容,放到寄存器1中”。
逻辑地址到物理地址的转换:
第一个对比:
页是信息的物理单位。分页的主要目的是为了实现离散分配,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为,对用户是不可见的。
段是信息的逻辑单位。分段的主要目的是更好的满足用户需求。一个段通常包含着一组属于一个逻辑模块的信息。分段对用户是可见的,用户编程时需要显示地给出段名。
页的大小固定且由系统决定的。段的长度却不固定,决定于用户编写的程序。
分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。
分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址。
第二个对比:分段比分页更容易实现信息的共享和保护。
1)举个例子:(分段管理适合方便信息共享)
【补充】不能被修改的代码称为纯代码或可重入代码(不属于临界资源),这样的代码是可以共享的。可修该的代码是不能共享的(比如,有一个代码中有很多变量,各进程并发地同时访问可能造成数据不一致)。
2)举个例子:(分页管理不适合方便信息共享)
第三个对比:访问一个逻辑地址需要几次访存?
与分页系统类似,分段系统中也可以引入快表机构,将近期访问过的段表项放到快表中,这样可以少访问一次,加快地址变换速度。
段页式管理式分段和分页的结合。
学习目标:
优点 | 缺点 | |
---|---|---|
分页管理 | 内存空间利用率高,不会产生外部碎片,只会有少量的页内碎片 | 不方便按照逻辑模块实现信息的共享和保护 |
分段管理 | 很方便按照逻辑模块实现信息的共享和保护 | 如果段过大,为其分配很大的连续空间会很不方便。另外,段式管理会产生外部碎片。(可以采用紧凑来解决,只是需要付出较大的时间代价)。 |
将进程按逻辑模块分段,在将各段分页(如每个页面4KB)。
再将内存空间分为大小相同的内存块/页框/页帧/物理块。
进程将个页面分别装入各内存块中。
分段系统的逻辑地址由段号和段内地址(段内偏移量)组成。如:
段页式系统的逻辑地址结构由段号、页号、页内地址(页内偏移量)组成。如:
在上述例子中,若系统式按字节寻址的,则
段号占16位,因此在该系统中,每个进程最多由2^16=64K个段。
页号占4位,因此每个段最多有2^4=16页。
页内偏移量占12位,因为每个页面\每个内存块大小为2^12=4096=4KB。
“分段“对用户式可见的,程序员编程时需要显示地给出段号、段内地址。而将各段”分页“对用户是不可见的。系统会根据段内地址自动划分页号和页内偏移量。
因此段页式管理的地址结构是二维的。
每个段对应一个段表项,每个段表项由段号、页表长度、页表存放块号(页表起始地址)组成。每个段表项长度相等,段号是隐含的。
每个页面对应一个页表项,每个页表项由页号、页面存放的内存块号组成。每个页表项长度相等,页号是隐含的。
也可引入快表机构,用段号和页号作为查询快表的关键字。若快表命中则仅需一次访存。
前景回顾:
本章学习目标:
传统存储管理方式有两个特性:
特性一:一次性:作业必须一次性全部装入内存后才能开始运行。
这会造成两个问题:
特性二:**驻留性:**一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。
利用虚拟存储器技术可以解决以上问题。
而虚拟存储的提出是基于著名的局部性原理。
**时间局部性:**如果执行了程序中的某条指令,那么不久这条指令很有可能再次执行;如果某个数据被访问过,不久之后该数据和有可能再次被访问。(因为程序中存在大量的循环)。
**空间局部性:**一旦程序访问了某个存储单元,在不久之后,其附近的存储单元也很有可能被访问。(因为很多数据在内存都是连续存放的,并且程序的指令也是顺序地在内存中存放地)。
基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分驻留在外存,就可以让程序开始执行。
在程序执行过程中,当所访问的信息不在内存时由操作系统负责将所需信息从外存调入内存,然后继续执行程序。
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出外存。
在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是虚拟内存。
虚拟内存是操作系统虚拟性的一个体现,实际的物理内存大小没有变,只是在逻辑上进行了扩充。
虚拟内存三个主要特征:
虚拟内存技术,允许一个作业多次分配内存。如果采用连续分配方式,会不方便实现。因此,虚拟内存的实现需要建立在离散分配的内存管理方式基础上。
在传统的离散(非连续)分配存储管理,有三种方法:
那与之对应的虚拟存储的离散分配,也有三种方法:
传统的离散分配存储管理和虚拟存储的离散分配管理主要区别,如下:
所以实现虚拟内存的管理,就是在实现传统管理的基础之上,多加了两个主要功能:
请求分页存储管理方式是在基本分页存储管理的基础之上进行拓展从而实现的虚拟内存管理技术。
请求分页存储管理与基本分页存储管理的主要区别:
- 在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。
- 若内存空间不够,由操作系统负责将内存中暂时用不到信息换出外存。
那也就意味着操作系统需要额外提供两种功能:
- 请求调页功能:操作系统将缺失页面从外存调入内存。
- 页面置换功能:操作系统将暂时用不到的页面换出外存。
学习目标:
1)与基本分页管理相比,请求分页管理中,为了实现“请求调页”,操作系统需要知道每个页面是否已经调入内存;如果还没调入,那么也需要知道该页面在外存中存放的位置。
2)当内存空间不够时,要实现”页面置换“,操作系统需要通过某些指标来决定到底换出那个页面;有的页面没有被修改过,就不用在浪费时间写回外存。有的页面修改过,就需要将外存中的旧数据覆盖,因此,操作系统也需要记录各个页面是否被修改的信息。
为了实现请求调页功能,系统中需要引入缺页中断机构。
缺页中断机构的流程:
1)假设此时要访问逻辑地址=(页号,页内偏移量)=(0,1024)
2)在请求分页系统中,每当要访问的页面不在内存时,便产生一个缺页中断,然后由操作系统的缺页中断处理程序处理中断。此时缺页的进程阻塞,放入阻塞队列,调页完成后再将其唤醒,放回就绪队列。
3)这里分为有空闲块和没有空闲块
? 3.1)如果内存中有空闲块,则为进程分配一个空闲块,将所缺页面装入该块,并修改页表中相应的页表项:
?
? 3.2)如果内存中没有空闲块,则由页面置换算法选择一个页面淘汰,若该页面在内存期间被修改过,则要将其 写回外存、未修改过的页面不用写回外存。并修改页表中相应的页表项。
缺页中断是因为当前执行的指令想要访问的目标未调入内存而产生的,因此属于内中断。
一条指令在执行期间,可能产生多次缺页中断。(如:copy A to B,即将逻辑地址A中的数据复制到逻辑地址B,而A,B属于不同的页面并且A、B都没有调入内存中,则有可能产生两次中断)。
请求分页存储管理与基本分页存储管理相比较新增步骤:
下面我们来看看请求分页存储管理的逻辑地址转换为物理地址的过程,这里只举出相较于基本分页存储管理新增的步骤:
若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存。
而调用信息到外存的过程,就需要用页面置换算法决定应该换出哪个页面。
页面的换入、换出需要磁盘,I/O,会有较大的开销,因此好的页面置换算法应该追求更少的缺页率。
页面置换算法有如下几种:
最佳置换算法(OPT,Optimal):每次选择淘汰的页面将是以后永不使用,或者在最长时间内不再被访问的页面,这样可以保证最低的缺页率。
Eg:假设系统为某进程分配了三个内存块,并考虑到有以下页面号引用串(会依次访问这些页面):7,0,1,2,0,3,0,4,2,3,0,3,2,1,2,0,1,7,0,1
上面只举出一个页面的置换过程,其它页面置换过程同理,不在叙述。
来看最终结果:以上图中标记?
的都是发生中断的。
所以整个过程缺页中断发生9次,页面置换发生了6次。
注意:缺页时未必发生了页面置换。若还有可用的空闲内存块,就不用进行页面置换。
**缺页率:**9/20=45%。
但是很遗憾,虽然最佳置换算法可以保证最低的缺页率,但实际上,只有在进程执行的过程中才能知道接下来会访问到那个页面。操作系统无法提前预判页面访问序列。因此,最佳置换算法是无法实现的。只是个理想中的算法。
先进先出置换算法(FIFO):每次选择淘汰的页面是最早进入内存的页面。
实现方法:把调入内存的页面根据调入的先后顺序排成一个队列,需要换出页面时选择对头页面即可。队列的最大长度取决于系统为进程分配了多少内存块。
Eg1:假设系统为某进程分配了三个内存块,并考虑到有以下页面号引用串:
3,2,1,0,3,2,4,3,2,1,0,4
。
如下置换过程:
分配三个内存块时,标记?
表示缺页,所以一共缺页9次。
那如果是四个内存块呢?
Eg:假设系统为某进程分配了四个内存块,并考虑到有以下页面号引用串:
3,2,1,0,3,2,4,3,2,1,0,4
。
如下置换过程:
分配三个内存块时,标记?
表示缺页,所以一共缺页10次。
那到这里我们就有疑问了?按理说分配的内存块越多缺页应该越少啊?但事实整正好相反,随着内存块的增加缺页次数不见反增。
那这种现象叫做Belady异常。
Belady异常——当为进程分配的物理块数增大时,缺页次数不减反增的异常现象。
只有FIFO算法会产生Belady异常。另外,FIFO算法虽然实现简单,但是该算法与进程实际运行时的规律不适应,因为先进入的页面也有可能最经常访问。因此,算法性能差。
最近最久未使用置换算法(LRU,least recently used):每次淘汰的页面是最近最久未使用的页面。
实现方法:赋予每个页面对应的页表项中,用访问字段记录该页面自上次被访问以来所经历的时间t。
当需要淘汰一个页面时,选择现有页面中t
值最大的,即最近最久未使用的页面。
Eg:假设系统为某进程分配了四个内存块,并考虑到有以下页面号引用串:
1,8,1,7,8,2,7,2,1,8,3,8,2,1,3,1,7,1,3,7
。
这里在强调以下,查找淘汰页的方法:在手动做题时,若需要淘汰页面,可以逆向检查此时在内存中的几个页面号。在逆向扫描过程中最后一个出现的页号就是要淘汰的页面。
该算法的实现需要专门的硬件支持,虽然算法性能好,但是实现困难,开销大。
最近最久未使用算法是最接近最佳置换算法。
前面学习到的三种置换算法,各有各的特点:
时钟置换算法是一种性能和开销较均衡的算法,又称CLOCK算法,或最近未用算法(NRU,Not Recently Uesd)
时钟置换算法分为两种:
简单的CLOCK算法实现方法:为每个页面设置一个访问位,再将内存中的页面都通过链接指针链接成一个循环队列。当某页被访问时,其访问位置为1。当需要淘汰一个页面时,只需检查页的访问位。如果是0,就选择该页换出;如果是1,则将它置为0,暂不换出,继续检查下一个页面,若第一轮扫描中所有页面都是1,则将这些页面的访问位依次置为0后,再进行第二轮扫描(第二轮扫描中一定会有访问位为0的页面,因此简单的CLOCK算法选择一个淘汰页面最多会经过两轮扫描)。
Eg:假设系统为某进程分配了五个内存块,并考虑到有以下页面号引用串:1,3,4,2,5,6,3,4,7
。
简单时钟置换算法仅考虑到一个页面最近是否被访问过。事实上,如果被淘汰的页面没有被修改过,就不需要执行I/O操作写回外存。只有被淘汰的页面被修改时,才需要写回外存。
因此,除了考虑一个页面最近有没有被访问过之外,操作系统还应考虑页面有没有被修改过。在其它条件否相同时,应优先淘汰没有修改过的页面,避免I/O操作。这就是改进型的时钟置换算法的思想。
因此修改位=0表示页面没有被修改过;修改位=1,表示页面被修改过。
为方便讨论,用(访问位,修改位)的形式表示各页面的状态。如(1,1)表示一个页面近期被访问过,且被修改过。
**算法规则:**将所有可能被置换的页面排成一个循环队列。
第一轮扫描:从当前位置开始扫描到第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位。
第二轮扫描:若第一轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换。本轮将所有扫描过的帧访问位设为0。
第三轮:若第二轮扫描失败,则重新扫描,查找第一个(0,0)的帧用于替换。本轮扫描不修改任何标志位。
第四轮:若第三轮扫描失败,则重新扫描,查找第一个(0,1)的帧用于替换。
由于第二轮已经所有帧的访问设为0,因此经过第三轮、第四轮扫描一定会有一个帧被选中,因此改进型CLOCK置换算法选择一个淘汰页面最多会进行四轮扫描。
Eg:
第一轮扫描,置换过程:
第二轮扫描,置换过程:
…(自行推导)
以上页面淘汰优先级如下:
1)第一轮扫描是第一优先级:最近没访问,且没修改过的页面。
2)第二轮扫描是第二优先级:最近没访问,但修改过的页面。
3)第三轮扫描是第三优先级:最近访问过,但没修改过的页面。
4)第四轮扫描是第四优先级:最近访问过,且修改过的页面。
学习目标:
驻留集:指请求分页存储管理中给进程分配的物理块的集合。
在采用了虚拟存储技术的系统中,驻留集大小一般小于进程的总大小。
考虑一个极端情况,若某进程共有100个页面,则该进程的驻留集大小为100时进程可以全部放入内存,运行期间不可能在发生缺页。若驻留集大小为1,则进程运行期间必定会极频繁的缺页。
所以驻留集大小:
那针对驻留集大小是否可变,分为两种策略:
置换也分两种策略:
那将分配和置换结合,有如下3种情况:
全局置换意味着一个进程拥有的物理块数量必然会改变,因此不可能是固定分配。
所以不存在固定分配全局置换这种策略。
固定分配局部置换:系统为每个进程分配一定数量的物理块,在整个运行期间都不改变。若进程在运行中发生缺页,则只能从该进程在内存中的页面中选出一页换出,然后再调入需要的页面。
这种策略的缺点是:很难在刚开始就确定应为每个进程分配多少个物理块才算合理。( 采用这种策略的系统可以根据进程大小、优先级、或是根据程序员给出的参数来确定为一个进程分配的内存块数)
可变分配全局置换:刚开始会为每个进程分配一定数量的物理块。操作系统会保持一个空闲物理块队列。当某进程发生缺页时,从空闲物理块中取出一块分配给该进程;若已无空闲物理块,则可选择一个未锁定的页面换出外存,再将该物理块分配给缺页的进程。采用这种策略时,只要某进程发生缺页,都将获得新的物理块,仅当空闲物理块用完时,系统才选择-一个未锁定的页面调出。被选择调出的页可能是系统中任何一个进程中的页,因此这个被选中的进程拥有的物理块会减少,缺页率会增加。
可变分配局部置换:刚开始会为每个进程分配一定数量的物理块。当某进程发生缺页时,只允许从该进程自己的物理块中选出一个进行换出外存。如果进程在运行中频繁地缺页,系统会为该进程多分配几个物理块,直至该进程缺页率趋势适当程度;反之,如果进程在运行中缺页率特别低,则可适当减少分配给该进程的物理块。
可变分配全局置换和可变分配局部置换的区别:
调入页面有两种策略:
预调页策略:根据局部性原理的空间局部性,一次调入若千个相邻的页面可能比一次调入一 一个页面更高效。但如果提前调入的页面中大多数都没被访问过,则又是低效的。因此可以预测不久之后可能访问到的页面,将它们预先调入内存,但目前预测成功率只有50%左右。故这种策略主要用于进程的首次调入(运行前调入),由程序员指出应该先调入哪些部分。
请求调页策略:进程在运行期间发现缺页时才将所缺页调入内存。由这种策略调入的页面一定会被访问到,但由于每次只能调入一页,而每次调页都要磁盘I/O操作,因此I/O开销较大。
外存(磁盘)分为两个区:
1)系统拥有足够的对换区空间:页面的调入、调出都是在内存与对换区之间进行,这样可以保证页面的调入、调出速度很快。在进程运行前,需将进程相关的数据文件区复制到对换区。
2)系统缺少足够的对换区空间:凡是不会被修改的数据都直接从文件区调入,由于这些页面不会被修改,因此换出时不必写回磁盘,下次需要时再从文件区调入即可。对于可能被修改的部分,换出时需写回磁盘对换区,下次需要时再从对换区调入。
3)UNIX方式:运行之前进程有关的数据全部放在文件区,故未使用过的页面,都可从文件区调入。若被使用过的页面需要换出,则写回对换区,下次需要时从对换区调入。
刚刚换出的页面马上又要换入内存,刚刚换入的页面又要换出外存,这样频繁的页面调度行为称为抖动、或颠簸。产生抖动的主要原因是进程频繁访问的页面数目高于可用的物理块数(分配给进程的物理块不够)。
发生抖动现象系统会用大量的时间来处理进程页面的换入/换出,而实际用于进程执行的时间就很少。所以要尽量避免抖动的发生。
为此有个科学家Denning提出了进程工作集的概念。
**工作集:**指在某段时间间隔里,进程实际访问页面的集合。
区分:
**驻留集:**指请求分页存储管理中给进程分配的内存块的集合。
操作系统会根据“窗口尺寸”来算出工作集。例:
某进程的页面访问序列如:24,15,18,23,24,17,18,24,18,17,17,15
,窗口尺寸为4,各时刻的工作集为?
工作集大小可能小于窗口尺寸,实际应用中,操作系统可以统计进程的工作集大小,根据工作集大小给进程分配若干内存块。如:窗口尺寸为5,经过一段时间的监测发现某进程的工作集最大为3,那么说明该进程有很好的局部性,可以给这个进程分配3个以上的内存块即可满足进程的运行需要。
一般来说,驻留集的大小不能小于工作集大小,否则进程运行过程中将频繁缺页。
【拓展】基于局部性原理可知,进程在–段时间内访问的页面与不久之后会访问的页面是有相关性的。因此,可以根据进程近期访问的页面集合(工作集)来设计-种页面置换算法——选择一个不在工作集中的页面进行淘汰。
学习目标:
传统文件访问方式:
可以看得到传统文件访问很麻烦,所以我们来介绍内存映射文件
内存映射文件——操作系统向上层程序员提供的功能(系统调用)。
下面分别介绍为什么内存映射文件有以上2种功能。
内存映射文件的访问方式:
可以看到使用内存映射文件,文件数据的读入、写出都是由操作系统完的,而不需要程序员在使用write
和read
等系统调用进行文件的读入和写出。
使用内存映射文件,进程1和进程2可以分别映射磁盘中的数据。
然后再由操作系统修改进程1和进程2的页表,让对应的页面映射到相同的物理页框。
便可实现文件共享。