储层检测方法及装置与流程

文档序号:12359935阅读:375来源:国知局
储层检测方法及装置与流程

本发明涉及石油地球物理勘探技术领域,具体而言,涉及一种储层检测方法及装置。



背景技术:

地球物理勘探的目标日渐深部化、微小化,勘探环境更趋复杂化,一些在浅层条件下效用显著的含气性检测方法技术,如“亮点”技术、AVO效应、高频阴影等无法满足勘探要求。储层的含油气性预测其本质是岩石孔隙流体属性与饱和度的判识与评价,储层孔隙流体的体积与质量只占储集层岩石的极小一部分,并且是填充在固态岩石骨架的孔隙中,地震响应非常微弱。地震记录如果对岩石孔隙流体变化有响应,只可能反映在地震事件的细结构中。描述地震波传播的波动方程是在一定假设条件下(如完全弹性介质等)获得的近似方程,能很好地表征波动的“主相”,但未必能反映孔隙流体响应的“微相”。因此,基于波动方程的油气检测缺乏严格的数理基础,会造成较大的误差。



技术实现要素:

有鉴于此,本发明实施例的目的在于提供一种储层检测方法及装置,以解决在复杂勘探环境下,现有技术无法检测其储层特征如含油气性的问题。

第一方面,本发明实施例提供了一种储层检测方法,所述方法包括:

根据标定的目标层位,获取与所述目标层位对应的井旁地震道数据;

基于所述井旁地震道数据,建立储层检测深度学习模型;

基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;

获取所述目标层位上的预设参考位置的储层特征;

基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。

第二方面,本发明实施例提供了一种储层检测装置,所述装置包括:

提取地震数据单元,用于根据标定的目标层位,提取井旁地震道数据;

建立储层检测深度学习单元,用于将基于所述井旁地震道数据,建立储层检测深度学习模型;

获得高层特征单元,用于基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;

获取预设位置储层特征单元,用于获取所述目标层位上的预设参考位置的储层特征;

确定目标层位储层特征单元,用于基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征;

本发明实施例提供的一种储层检测方法及装置,通过目标层位提取的井旁地震道数据和深度学习方法,建立储层特征检测深度学习模型提取储层弱地震响应特征,能够更简单高效地确定储层特征,提高地震勘探数据的储层如油气、烃类检测精度。

本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。

附图说明

为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。通过附图所示,本发明的上述及其它目的、特征和优势将更加清晰。在全部附图中相同的附图标记指示相同的部分。并未刻意按实际尺寸等比例缩放绘制附图,重点在于示出本发明的主旨。

图1为一种可应用于本本发明实施例中的电子设备的结构框图;

图2为本发明第一实施例提供的储层检测方法的流程图;

图3为本发明第一实施例提供的井旁地震道数据提取示意图;

图4为本发明第一实施例提供的储层检测深度学习模型流程图;

图5为本发明第一实施例提供的储层检测深度学习模型的高层基函数的示意图;

图6为本发明第一实施例提供的W1井、W2井及W3井的连井剖面图;

图7为本发明第一实施例提供的储层检测方法的高层特征1的示意图;

图8为本发明第一实施例提供的储层检测方法的高层特征2的示意图;

图9为本发明第二实施例提供的储层检测方法的流程图;

图10为本发明第三实施例提供的储层检测装置的结构框图;

图11为本发明第四实施例提供的储层检测装置的结构框图。

具体实施方式

下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。

请参阅图1,图1示出了一种可应用于本申请实施例中的电子设备100的结构框图。该电子设备100可以作为用户终端、计算机或服务器,如图1所示,电子设备100可以包括存储器110、存储控制器111、处理器112和储层检测装置。

存储器110、存储控制器111、处理器112、储层检测装置各元件之间直接或间接地电连接,以实现数据的传输或交互。例如,这些元件之间可以通过一条或多条通讯总线或信号总线实现电连接。所述储层检测方法分别包括至少一个可以以软件或固件(firmware)的形式存储于存储器110中的软件功能模块,例如所述储层检测装置包括的软件功能模块或计算机程序。

存储器110可以存储各种软件程序以及模块,如本申请实施例提供的储层检测方法及装置对应的程序指令/模块。处理器112通过运行存储在存储器110中的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现本申请实施例中的储层检测方法。存储器110可以包括但不限于随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-Only Memory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。

处理器112可以是一种集成电路芯片,具有信号处理能力。上述处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。其可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。

第一实施例

请参阅图2,本发明实施例提供了一种储层检测方法,本实施例描述的是针对于已获取的井旁地震道数据的处理流程,所述方法包括:

步骤S210:根据标定的目标层位,获取与所述目标层位对应的井旁地道数据;

步骤S220:基于所述井旁地震道数据,建立储层检测深度学习模型;

步骤S230:基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;

步骤S240:获取所述目标层位上的预设参考位置的储层特征;

步骤S250:基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。

进一步地,基于步骤S110,所述根据标定的目标层位,提取地震数据,包括:沿标定的目标层位,以预先设定的时窗宽度提取井道旁地震数据。沿标定的目标层位,首先提取三口井W1井、W2井及W3井旁地震道数据,请参阅图3,黑色圆点表示一道,以某一点作为原点,向邻近周围方向各沿一道,共产生3*3=9道,每道开取时窗为20ms,按2ms的采样间隔,每道10个采样点。一个训练样本为90采样点。空间滑动距离为1个间隔,时窗移动距离一般取小于等于时窗长度,直到空间区域边界及时间区域边界。上述原点周围道数、滑动距离、时窗移动距离、空间区域边界、时间区域边界可按实际情况选定。作为一种实施方式,本实施例中预先设定的时窗宽度为150ms,然后每道的150ms将分为各个小时窗宽度即20ms。

步骤S220:基于所述井旁地震道数据,建立储层检测深度学习模型。

进一步地,请参阅图4,建立储层检测深度学习模型,具体地分为两个部分:预训练深度学习模型和调整深度学习模型。

步骤S221:将所述井旁地震道数据作为训练数据,预训练储层检测深度学习模型的配置参数。

具体地,将所述井旁地震数据作为训练数据,利用受限玻尔兹曼机或连续受限玻尔兹曼机,预训练储层检测深度学习模型的配置参数;更新所述配置参数,直到完成包含多层受限玻尔兹曼机或连续受限玻尔兹曼机的储层检测深度学习模型的深度置信网络,其中,所述配置参数包括模型深度、模型每层神经元节点数、神经元激活函数及稀疏目标函数。

目前所用的限制性玻尔兹曼机是玻尔兹曼机和专家乘积系统的结合,模型结构仍保持有玻尔兹曼机的单隐层随机神经网络,模型训练算法是专家乘积系统中的对比散度算法。

玻尔兹曼机(Boltzmann Machine,BM)是Hinton在1986年提出的,该网络是一种基于统计力学的随机神经网络。网络中的神经元属于随机神经元,只有两种输出状态(激活与未激活),一般用二进制0和1表示,状态的取值根据统计规则决定。玻尔兹曼机由随机神经元全连接组成的反馈神经网络,且对称连接,无自反馈,包含一个可视层和一个隐层。玻尔兹曼机具有强大的无监督学习能力,能够学习原始数据中的结构性特征,但是训练时间是相当长的,不仅难以准确计算玻尔兹曼机所表示的分布,而且得到服从玻尔兹曼分布的随机样本也是十分困难的。为了解决这类问题,Smolensky引入了玻尔兹曼机的限制版本(Restricted Boltzmann Machine,RBM),RBM同样是具有一个可见层和一个隐层,层间全连接,层内无连接。在给定可见层单元状态时,各隐层单元的激活状态条件独立,同理,在给定隐层单元状态时,可视层单元的激活状态也是条件独立的。Roux和Bengio从理论上证明了只要隐单元的数目足够多,RBM就能拟合任意离散分布。

限制玻尔兹曼机(Restricted Boltzmann Machine,RBM)根植于统计力学,能量函数是描述整个系统状态的测度,系统有序或概率分布越集中,整个系统的能量就越小。训练RBM参数主要是使下面的能量函数最小,假设RBM包含n个输入层单元和m个隐层单元,用向量v和h别表示可视层单元的及隐层单元的状态,那么RBM的能量函数定义如下(单个样本):

<mrow> <mi>E</mi> <mrow> <mo>(</mo> <mi>v</mi> <mo>,</mo> <mi>h</mi> <mo>|</mo> <mi>&theta;</mi> <mo>)</mo> </mrow> <mo>=</mo> <mo>-</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <msub> <mi>a</mi> <mi>i</mi> </msub> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>-</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msub> <mi>b</mi> <mi>j</mi> </msub> <msub> <mi>h</mi> <mi>j</mi> </msub> <mo>-</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <msub> <mi>v</mi> <mi>i</mi> </msub> <msub> <mi>w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <msub> <mi>h</mi> <mi>j</mi> </msub> </mrow>

θ={wij,ai,bj}是RBM的参数。其中,wij是可视单元i与隐单元j之间的连接权重,ai表示可视层单元i的偏置,bj表示隐层单元j的偏置。利用Hinton提出的对比散度算法可得到权值的更新:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <mi>p</mi> <mrow> <mo>(</mo> <msubsup> <mi>h</mi> <mi>j</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>1</mn> <mo>|</mo> <msup> <mi>v</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>i</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <mi>p</mi> <mrow> <mo>(</mo> <msubsup> <mi>h</mi> <mi>j</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>1</mn> <mo>|</mo> <msup> <mi>v</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <msubsup> <mi>v</mi> <mi>i</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mrow>

<mrow> <msub> <mi>&Delta;a</mi> <mi>i</mi> </msub> <mo>=</mo> <msubsup> <mi>v</mi> <mi>i</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msubsup> <mo>-</mo> <msubsup> <mi>v</mi> <mi>i</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> </mrow>

<mrow> <msub> <mi>&Delta;b</mi> <mi>j</mi> </msub> <mo>=</mo> <mi>p</mi> <mrow> <mo>(</mo> <msubsup> <mi>h</mi> <mi>j</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>1</mn> <mo>|</mo> <msup> <mi>v</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>-</mo> <mi>p</mi> <mrow> <mo>(</mo> <msubsup> <mi>h</mi> <mi>j</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>=</mo> <mn>1</mn> <mo>|</mo> <msup> <mi>v</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> </mrow>

其中,

进一步地,当使用训练数据初始化v(0)时,仅需要采样k步就可以得到足够好的近似,也就是说,Gibbs采样k步后,RBM生成模型将越来越接近原始数据的分布。

为了模拟连续数据,连续受限玻尔兹曼机(Continuous Restricted Boltzmann Machine,CRBM)在可视层单元sigmoid函数中加入一个均值为0、方差为,常数σ和Nj(0,1)共同产生了高斯输入分量nj服从σNj(0,1)分布,其概率密度为:

<mrow> <mi>p</mi> <mrow> <mo>(</mo> <msub> <mi>n</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>&sigma;</mi> <msqrt> <mrow> <mn>2</mn> <mi>&pi;</mi> </mrow> </msqrt> </mrow> </mfrac> <mi>exp</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mo>-</mo> <msubsup> <mi>n</mi> <mi>j</mi> <mn>2</mn> </msubsup> </mrow> <mrow> <mn>2</mn> <msup> <mi>&sigma;</mi> <mn>2</mn> </msup> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow>

因此,隐藏层状态hj由可视层单元状态vi表示为:

其中,函数的表达式如下:

θL和θH分别为sigmoid函数的下渐近线和上渐近线,参数aj是控制sigmoid函数斜率的变量,当aj由小变大时,单元就可以从无噪声的确定性状态到二进制随机状态平滑过渡;如果aj在噪音范围内使sigmoid函数变为线性,那么hj将会服从均值为方差为σ2的高斯分布。权值更新公式为:

<mrow> <msub> <mi>&Delta;w</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>=</mo> <msub> <mi>&eta;</mi> <mi>w</mi> </msub> <mrow> <mo>(</mo> <mo>&lt;</mo> <msubsup> <mi>v</mi> <mi>i</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>h</mi> <mi>j</mi> <mrow> <mo>(</mo> <mn>0</mn> <mo>)</mo> </mrow> </msubsup> <mo>&gt;</mo> <mo>-</mo> <mo>&lt;</mo> <msubsup> <mi>v</mi> <mi>i</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <msubsup> <mi>h</mi> <mi>j</mi> <mrow> <mo>(</mo> <mn>1</mn> <mo>)</mo> </mrow> </msubsup> <mo>&gt;</mo> <mo>)</mo> </mrow> </mrow>

稀疏RBM的目标函数表达式如下:

<mrow> <mo>-</mo> <munderover> <mo>&Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>l</mi> <mi>o</mi> <mi>g</mi> <munder> <mo>&Sigma;</mo> <mi>h</mi> </munder> <mi>p</mi> <mrow> <mo>(</mo> <msup> <mi>v</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <msup> <mi>h</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mi>&lambda;</mi> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mi>p</mi> <mo>-</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>E</mi> <mo>&lsqb;</mo> <msubsup> <mi>h</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>|</mo> <msup> <mi>v</mi> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msup> <mo>&rsqb;</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow>

步骤S222:基于所述井旁地震道数据及与所述井旁地震道数据对应的目标数据,调整预训练完成的储层检测深度学习模型,从而建立储层检测深度学习模型。

具体地,基于步骤S222,基于所述井旁地震道数据及与所述井旁地震道数据对应的目标数据,基于反向传播算法,利用批量随机梯度下降算法求解所述多层受限玻尔兹曼机或连续受限玻尔兹曼机的储层检测深度学习模型的深度置信网络,调整预训练完成的储层检测深度学习模型参数,直至满足预设条件,从而建立储层检测深度学习模型。

假设有样本集{(x(1),y(1)),...(x(m),y(m))},共m个样本,x指输入向量,y是目标向量。使用批量随机梯度下降算法求解展开后的多层受限玻尔兹曼机或连续受限玻尔兹曼机的储层检测深度学习模型的深度置信网络。整个数据集上的代价函数为:

<mrow> <mi>J</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>;</mo> <mi>X</mi> <mo>,</mo> <mi>Y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>m</mi> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <mi>J</mi> <mrow> <mo>(</mo> <mi>W</mi> <mo>,</mo> <mi>b</mi> <mo>;</mo> <msup> <mi>x</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>,</mo> <msup> <mi>y</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>)</mo> </mrow> </msup> <mo>)</mo> </mrow> <mo>+</mo> <mfrac> <mi>&lambda;</mi> <mn>2</mn> </mfrac> <munderover> <mo>&Sigma;</mo> <mrow> <mi>l</mi> <mo>=</mo> <mn>1</mn> </mrow> <mrow> <mi>L</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <munderover> <mo>&Sigma;</mo> <mi>k</mi> <msub> <mi>N</mi> <mi>l</mi> </msub> </munderover> <munderover> <mo>&Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <msub> <mi>N</mi> <mrow> <mi>l</mi> <mo>+</mo> <mn>1</mn> </mrow> </msub> </munderover> <msup> <mrow> <mo>(</mo> <msubsup> <mi>W</mi> <mrow> <mi>j</mi> <mi>k</mi> </mrow> <mrow> <mo>(</mo> <mi>l</mi> <mo>)</mo> </mrow> </msubsup> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow>

L代表整个深度置信网络的深度,包括输入层、隐藏层、输出层。Nl表示第l层的神经元个数,Nl+1表示l+1的神经元个数。

作为一种实施方式,本实施例中可视层单元即输入层为1,隐藏层为5,整个深度置信网络的深度L=2*隐层数+1为11,J(W,b;X,Y)为均方误差函数。

步骤230:基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征。

具体地,基于步骤230,计算所述储层检测深度学习模型的每层基函数,所述每层基函数包括高层基函数;基于所述目标层位与所述高层基函数的相关系数,确定所述目标层位的高层特征。

储层检测深度学习模型建立后,只取储层检测深度学习模型的编码层部分用于提取特征。指定区域数据提取过程:先确定层位,然后提取出层位数据,确定目标区域,将目标区域数据拉成一维向量输入训练好的深度学习模型。

深度学习模型中每层神经元激活值可作为原始数据的新的特征表达,并不是所有的特征都适合于描述储层特征;

按照深度学习理论,低层特征检测原始数据的局部信息,高层特征是低层特征的组合,是原始数据的抽象表示,高层特征对原始数据的突发变化有更强的鲁棒性;为了确定适合于描述储层特征的高层深度学习特征,需要计算深度学习模型每层基函数,第一层基函数是深度学习模型第一层的权值,后面各层的基函数是第一层到该层权值的累乘;提取目标地震响应值,利用该样本与基函数相关系数确定所述目标层位的高层特征。

请参阅图5,图5是目标样本以及与该目标样本极大正相关与极大负相关的高层基函数,相关系数分别为0.8779、-0.8766。同时,高层基函数更为平滑,对原始数据的突发变化有更强的鲁棒性。

步骤S240:获取所述目标层位上的预设参考位置的储层特征。

所述储层特征包括含水、含气、含气量少、岩性及烃类中至少一种。

请参阅图6,图6为W1井、W2井及W3井三口井的连井剖面,椭圆标记的是目标层位处,其中W1井含水,W2井含气,W3井含气量少。从图6的合成地震记录的剖面上可以看出含水层和含气层地震记录表现差异微小,几乎无法区别,因而需要根据本发明的方案进一步处理。

请参阅图7和图8,图7为本发明第一实施例提供的储层检测方法的高层特征1;图8为本发明第一实施例提供的储层检测方法的高层特征2。在图7和图8中,横坐标是共深度点(CDP)号,纵坐标分别是相应正相关高层基函数和负相关高层基函数获得的高层特征。CDP即地震数据处理时才有的基本道集形式,具有共同中心反射点的相应各记录道组成共中心点道集。在图7中,W1、W2及W3标记分别表示W1井、W2井及W3井,W1井、W2井及W3井表示目标层位上的预先参考位置,W1井、W2及W3井对应的高层特征值差异明显,W1井对应的高层特征值为-1.1左右,W2井对应的高层特征值为-1.25左右,W3井对应的高层特征值为-1.28左右。在图8中,W1、W2及W3标记分别表示W1井、W2井及W3井,W1井、W2井及W3井表示目标层位上的预先参考位置,W1井、W2及W3井对应的高层特征值差异明显,W1井对应的高层特征值为1.1左右,W2井对应的高层特征值为-1.18左右,W3井对应的高层特征值为1.16左右。

结合已知W1井含水,W2井含气,W3井含气量少的地质资料,得出含水层W1井和含气层W2井的对应高度特征差异明显,能够较易区别处含水层和含气层,W2井含气和W3井含气量少的对应高度特征很接近,这与实际情况一致,说明本发明实施例能够说明含水层和含气层之间的地质参数的微小区别能够从深度学习高层特征反映出来。此外,根据井资料确定不同岩性、流体引起的地震深度学习特征的差异,再将不同的岩性、流体引起的不同的地震深度学习特征外推到无井区域,进而进行含油、岩性、烃类检测。

步骤S250:基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。

请参阅图7和图8,W1、W2及W3标记分别表示W1井、W2井及W3井,W1井、W2井及W3井表示目标层位上的预先参考位置,结合已知W1井含水,W2井含气,W3井含气量少的地质资料,与W1井高度特征相同的区域可能会有相同的储层特征如含水;与W2井高度特征相同的区域可能会有相同的储层特征如含气;与W3井高度特征相同的区域可能会有相同的储层特征如含气量少。因此,本发明实施例可以通过高度特征来检测出相同或相似的储层特征。

本发明实施例提供的一种储层检测根据标定的目标层位,获取与所述目标层位对应的井旁地震道数据;基于所述井旁地震道数据,建立储层检测深度学习模型;基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;获取所述目标层位上的预设参考位置的储层特征;基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。本发明中采用的深度学习高层特征对地震信号的特征的敏感度很高,能够区分出不同岩性、流体等引起的地震信号微弱变化,适合进行岩性、油气储层等检测。

第二实施例

请参阅图9,本发明第二实施例提供的一种储层检测方法,本实施例描述的是针对于标定目标层位及井旁地震道数据的处理流程,所述方法包括:

步骤S310:利用测井、录井和合成地震记录标定目标层位。

步骤S320:根据标定的目标层位,获取与所述目标层位对应的井旁地震道数据;

步骤S330:基于所述井旁地震道数据,建立储层检测深度学习模型;

步骤S340:基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;

步骤S350:获取所述目标层位上的预设参考位置的储层特征;

步骤S360:基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。

可以理解,本实施例与第一实施例提供的信息处理方法最主要的区别在于,本实施例提供的储层检测方法还包括利用测井、录井和合成地震记录标定目标层位。其他的数据处理原理与第一实施例中的原理相似,相似之处可以参考第一实施例中的内容,本实施例中不再赘述。

本发明实施例提供的一种储层检测方法,利用测井、录井和合成地震记录标定目标层位;根据标定的目标层位,获取与所述目标层位对应的井旁地震道数据;基于所述井旁地震道数据,建立储层检测深度学习模型;基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;获取所述目标层位上的预设参考位置的储层特征;基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。本发明中采用的深度学习高层特征对地震信号的特征的敏感度很高,能够区分出不同岩性、流体等引起的地震信号微弱变化,适合进行岩性、油气储层等检测。

第三实施例

请参阅图10,本发明第三实施例提供了一种储层检测装置400,所述装置400包括:

提取地震数据单元410,用于根据标定的目标层位,获取与所述目标层位对应的井旁地震道数据。

建立储层检测深度学习单元420,用于将基于所述井旁地震道数据,建立储层检测深度学习模型。

获得高层特征单元430,用于基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;

获取预设位置储层特征单元440,用于获取所述目标层位上的预设参考位置的储层特征;

确定目标层位储层特征单元450,用于基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。

作为一种实施方式,所述建立储层检测深度学习单元420,包括:

预训练储层检测深度学习单元421,用于将所述井旁地震道数据作为训练数据,预训练储层检测深度学习模型的配置参数;

调整储层检测深度学习单元422,基于所述井旁地震道数据及与所述井旁地震道数据对应的目标数据,调整预训练完成的储层检测深度学习模型,从而建立储层检测深度学习模型。

需要说明的是,本实施例中的各单元可以是由软件代码实现,以上各单元同样可以由硬件例如集成电路芯片实现。

第四实施例

请参阅图11,本发明第四实施例提供了一种储层检测装置500,所述装置500包括:

标定目标层位单元510:利用测井、录井和合成地震记录标定目标层位。

提取地震数据单元520,用于根据标定的目标层位,获取与所述目标层位对应的井旁地震道数据。

建立储层检测深度学习单元530,用于将基于所述井旁地震道数据,建立储层检测深度学习模型。

获得高层特征单元540,用于基于所述储层检测深度学习模型及所述目标层位,获得所述目标层位的高层特征;

获取预设位置储层特征单元550,用于获取所述目标层位上的预设参考位置的储层特征;

确定目标层位储层特征单元560,用于基于所述预设参考位置的储层特征,确定所述目标层位上与所述预设参考位置的高层特征相同的区域的储层特征。

作为一种实施方式,所述建立储层检测深度学习单元530,包括:

预训练储层检测深度学习单元531,用于将所述井旁地震道数据作为训练数据,预训练储层检测深度学习模型的配置参数;

调整储层检测深度学习单元532,基于所述井旁地震道数据及与所述井旁地震道数据对应的目标数据,调整预训练完成的储层检测深度学习模型,从而建立储层检测深度学习模型。

需要说明的是,本实施例中的各单元可以是由软件代码实现,以上各单元同样可以由硬件例如集成电路芯片实现。

在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

另外,在本发明各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。

所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

当前第1页1 2 3 
网友询问留言 已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
1