ヘッダーをスキップ

Oracle Database Oracle ClusterwareおよびOracle Real Application Clustersインストレーション・ガイド
10g リリース2(10.2) for Linux

B25818-05
目次
目次
索引
索引

戻る 次へ

2 インストール前の作業

この章では、Oracle Universal Installerを起動する前に完了する必要がある、システムの構成作業について説明します。この章で説明する作業は、次のとおりです。

Linuxオペレーティング・システムのインストール

ここでは、サポートされているLinuxディストリビューションのインストールについて説明します。内容は次のとおりです。

デフォルトのLinuxインストールの完了

Linuxオペレーティング・システムを使用する場合は、デフォルトのソフトウェア・パッケージ(RPM)が付属しているLinuxオペレーティング・システムをインストールすることをお薦めします。このインストールには、ほとんどの必須パッケージが含まれており、手動でのパッケージの依存性チェックを削減することができます。インストール時にRPMをカスタマイズしないことをお薦めします。

インストール後、すべてのLegacy Software Developmentパッケージを追加します。ご使用のディストリビューションのシステム要件を確認し、すべての必要なカーネル・パッケージがインストールされていることを確認してから、ディストリビューションおよびシステム構成に必要なその他のすべての構成タスクを完了します。

Oracle Validated Configuration RPMおよびLinuxについて

ご使用のLinuxディストリビューションがOracle Enterprise LinuxまたはRed Hat Enterprise Linuxであり、Unbreakable Linuxを使用している場合は、Oracle Validated Configurations Setup RPM(Unbreakable Linux Network(ULN)から入手可能)を使用すると、インストール前のほとんどの構成タスクを完了できます。

Oracle Validated Configuration RPMをインストールすると、Oracle Validated Configurationsプログラムで提供される推奨事項に基づいてシステム・パラメータが設定および検証され、Oracle ClusterwareおよびOracle Databaseのインストールに必要な追加パッケージがインストールされます。また、sysctl.confの設定、システム起動パラメータ、ユーザー制限およびドライバ・パラメータが、多数のテストで示される値に更新され、パフォーマンスが向上します。

Unbreakable Linux Networkにサーバーを登録したり、詳しい情報を検索するには、次のURLを参照してください。

https://linux.oracle.com

Linux版Oracle Validated Configuration RPMのインストール

次の手順を実行して、Oracle Unbreakable Linuxチャネルを登録し、Oracle Validated Configurations Setup RPMを配布するOracle Software for Enterprise Linuxチャネルを追加します。

  1. Oracle Enterprise LinuxワークステーションまたはRed Hat Enterprise Linuxのデフォルトのインストールを完了します。

  2. Unbreakable Linux Network(ULN)にサーバーを登録します。デフォルトでは、ご使用のオペレーティング・システムおよびハードウェアのEnterprise Linux Latestチャネルに登録されています。

  3. 次のURLでULNにログインします。

    https://linux.oracle.com

  4. 「Systems」タブをクリックし、「System Profiles」リストで、登録したサーバーを選択します。「System Details」ウィンドウに、サーバーのサブスクリプションが表示されます。

  5. 「Available Channels」リストから、ご使用のLinuxのインストールに適したOracle Software for Enterprise Linuxチャネル(Oracle Software for Enterprise Linux 4(x86_64)など)を選択します。

  6. 「Subscribe」をクリックします。

  7. 端末セッションから、rootで次のコマンドを入力します。

    # up2date --nox --show-channels
    
    

    Oracle Software for Enterprise Linuxチャネルに登録されていることを示す出力が表示されます。次に例を示します。

    el4_i386_latest
    el4_i386_oracle
    
    
  8. rootで端末セッションを開き、次のようにup2dateコマンドを使用してOracle Validated Configurations Setup RPMをインストールします。

    # up2date --install oracle-validated
    
    
  9. クラスタ内の他のすべてのサーバーで手順1から8を繰り返します。


    注意:

    Oracle Validated Configuration RPMログ・ファイルでシステム構成の変更点を確認してください。

    /etc/sysconfig/oracle-validated/results/orakernel.log
     

クラスタ検証ユーティリティの理解と使用方法

クラスタ検証ユーティリティ(CVU)は、システムの検証を実行するツールです。このマニュアルでは、ご使用のシステムがOracle ClusterwareおよびOracle Real Application Clustersをインストールするために適切に構成されているかを確認するのに役に立つCVUコマンドについて説明します。

この項の内容は次のとおりです。

クラスタ検証ユーティリティ・コマンドの入力


注意:

実行するruncluvfy.shのパス・コマンドを使用して、unzipユーティリティをインストールおよび構成する必要があります。 


データベースをインストールする前にCVUコマンドを入力するには、ディレクトリを変更して、次の構文を使用してCVUを起動します。

$ /mountpoint/crs/Disk1/cluvfy/
$ ./runcluvfy.sh options

前述の例のmountpoint変数はインストール・メディアのマウント・ポイント・パスで、options変数はユーザーが選択するCVUコマンド・オプションです。次に例を示します。

$ /dev/dvdrom/crs/Disk1/cluvfy/
$ ./runcluvfy.sh comp nodereach -n node1,node2 -verbose

デフォルトでは、CVUコマンドを入力すると、テストのサマリーが出力されます。インストール前の手順では、CVUコマンドに-verbose引数を使用して詳細を出力することをお薦めします。-verbose引数を使用すると、個々の検証結果の詳細が出力されます。可能な場合は、各ノードの結果が表形式で表示されます。


注意:

runcluvfy.shスクリプトには、Oracle ClusterwareまたはOracle Databaseをインストールする前にスクリプトを実行できるようにする一時変数の定義が含まれます。Oracle Clusterwareをインストールした後、cluvfyコマンドを使用して、前提条件を確認し、他のシステムの準備状況の検証を実行します。 


CVUを使用したインストールの前提条件の完了確認

CVUを使用すると、インストールのためのシステム前提条件で、すでに完了しているものを確認できます。既存のOracleソフトウェアがインストールされているシステムにOracle 10g リリース2(10.2)をインストールする場合は、このオプションを使用します。このオプションを使用する場合は、次の点に注意してください。

次の構文を使用して、完了しているインストール前の手順と、実行する必要があるインストール前の手順を確認します。

/$ ./runcluvfy.sh stage -pre crsinst -n node_list 

前述の構文例のnode_list変数は、クラスタ内のノードのカンマ区切りリストです。

たとえば、クラスタが、マウント・ポイント/dev/dvdrom/と、node1node2およびnode3で構成されている場合は、次のコマンドを入力します。

$ cd /dev/dvdrom/crs/Disk1/cluvfy/
$ ./runcluvfy.sh stage -pre crsinst -n node1,node2,node3

CVUレポートを確認し、必要に応じて、インストール前の追加の手順を実行します。

クラスタ検証ユーティリティのヘルプの使用

cluvfyコマンドのヘルプは状況依存のヘルプで、入力したコマンドラインの引数に応じて正しい構文の使用方法を示します。

無効なCVUコマンドを入力すると、CVUによって、コマンドの正しい使用方法が表示されます。たとえば、runcluvfy.sh stage -pre dbinstと入力すると、dbinstステージ・オプションを使用して、データベースのインストール前検証を実行するための正しい構文が表示されます。状況依存ヘルプのコマンドは、次のとおりです。

Oracle 10g リリース1(10.1)でのクラスタ検証ユーティリティの使用

Oracle 10g リリース2(10.2)インストール・メディアのCVUを使用して、Oracle 10g リリース1(10.1)のインストールに必要なシステム要件を検証します。CVUを使用してリリース1(10.1)のインストールを検証するには、コマンド・フラグ-r 10gR1をCVUの標準のシステム検証コマンドに追加します。

たとえば、メディア・マウント・ポイントが/dev/dvdrom/、クラスタ・ノードがnode1node2およびnode3で構成されたシステムで、Cluster Ready Servicesのリリース1(10.1)のインストールに対する検証を実行するには、次のコマンドを実行します。

$ ./runcluvfy.sh stage -pre crsinst -n node1,node2,node3 -r 10gR1

詳細モードおよび「不明」出力

-verbose引数を使用してCVUを実行し、特定のノードに対するCVUコマンドの結果がUNKNOWNになる場合、その原因は、検証時に問題が検出されたかどうかをCVUで判断できないことにあります。結果が「不明」になる場合の、考えられる原因を次に示します。

rootによるシステムへのログイン

Oracleソフトウェアをインストールする前に、rootユーザーとして複数の作業を実行する必要があります。rootユーザーでログインするには、次の手順のいずれかを実行します。

必要なオペレーティング・システム・グループおよびユーザーの作成

システムにOracleソフトウェアを初めてインストールする場合や、インストールする製品によっては、いくつかのオペレーティング・システム・グループと1つのオペレーティング・システム・ユーザー・アカウントを作成する必要があります。

Oracleデータベースをインストールするには、次のオペレーティング・システム・グループおよびユーザーが必要です。

すべてのインストールに必要なオペレーティング・システム・グループおよびユーザーは、次のとおりです。

システムへのOracleソフトウェアのすべてのインストールには、単一のOracle Inventoryグループが必要です。システムへの2回目以降のOracleソフトウェアのインストールでは、Oracleソフトウェアを初めてインストールしたときと同じOracle Inventoryグループを使用する必要があります。ただし、個々の環境に対してそれぞれにOracleソフトウェア所有者ユーザー、OSDBAグループおよびOSOPERグループ(oracledbaおよびoper以外)を作成できます。環境ごとに異なるグループを使用すると、それぞれのグループのメンバーは、システムのすべてのデータベースではなく、関連するデータベースに対してのみDBA権限を持ちます。

参照:

OSDBAグループとOSOPERグループ、およびSYSDBA権限とSYSOPER権限の詳細は、Oracle Databaseの管理者リファレンスおよび『Oracle Database管理者ガイド』を参照してください。 

次の項では、必要なオペレーティング・システム・ユーザーおよびグループを作成する方法について説明します。

Oracle Inventoryグループの作成

Oracle Universal Installer(OUI)を使用すると、Oracle Inventoryグループとして使用するグループの選択が簡単になります。既存のOracle Inventoryグループがある場合は、グループ名とパスを指定するように求められたときに、そのグループのものを指定します。

次の項では、Oracle Inventoryグループが存在する場合に、そのグループ名を確認する方法について説明します。また、必要に応じて、Oracle Inventoryグループを作成する方法についても説明します。

Oracle Inventoryの存在の確認

システムに初めてOracleソフトウェアをインストールする場合は、Oracle Universal InstallerによってoraInst.locファイルが作成されます。このファイルに、Oracle Inventoryグループのグループ名(通常、oinstall)およびOracle Inventoryディレクトリのパスが示されます。

既存のOracle Inventoryがある場合は、必ずすべてのOracleソフトウェア・インストールで同じOracle Inventoryインベントリを使用します。

既存のOracle Inventoryがない場合は、Oracle Inventoryグループを作成する必要があります。

システムにOracle Inventoryがあるかどうかを確認するには、次のようにします。

x86またはItaniumシステムの場合、次のコマンドを入力します。

# more /etc/oraInst.loc

IBM zSeriesベースのシステムの場合、次のコマンドを入力します。

# more /var/opt/oracle/oraInst.loc

oraInst.locファイルが存在する場合、このコマンドの出力結果は、次のようになります。

inventory_loc=/u01/app/oracle/oraInventory
inst_group=oinstall

前述の出力例の意味は次のとおりです。

Oracle Inventoryが存在しない場合のOracle Inventoryグループの作成

oraInst.locファイルが存在しない場合は、次のコマンドを入力して、Oracle Inventoryグループを作成します。

# /usr/sbin/groupadd oinstall

OSDBAグループの作成

次の場合は、OSDBAグループを作成する必要があります。

OSDBAグループが存在しない場合または新しいOSDBAグループが必要な場合は、次の手順で作成します。次の手順では、既存のグループですでに使用されていないかぎり、グループ名にはdbaを使用します。

# /usr/sbin/groupadd dba

OSOPERグループの作成(任意)

OSOPERグループを作成する必要があるのは、制限付きのデータベース管理権限(SYSOPERオペレータ権限)を持つオペレーティング・システム・ユーザーのグループを指定する場合のみです。ほとんどの環境では、OSDBAグループを作成するのみで十分です。次の場合にOSOPERグループを使用するには、このグループを作成する必要があります。

新しいOSOPERグループが必要な場合は、次の手順で作成します。次の手順では、既存のグループですでに使用されていない限り、グループ名にはoperを使用します。

# /usr/sbin/groupadd oper

Oracleソフトウェア所有者ユーザーの作成

次の場合は、Oracleソフトウェア所有者ユーザーを作成する必要があります。

Oracleソフトウェア所有者ユーザーの存在の確認

oracleというOracleソフトウェア所有者ユーザーが存在するかどうかを確認するには、次のコマンドを入力します。

# id oracle

oracleユーザーが存在する場合、このコマンドの出力結果は、次のようになります。

uid=440(oracle) gid=200(oinstall) groups=201(dba),202(oper)

ユーザーが存在する場合は、既存ユーザーを使用するか、別のoracleユーザーを作成するかを決定します。既存ユーザーを使用する場合は、ユーザーのプライマリ・グループがOracle Inventoryグループであり、そのグループが適切なOSDBAおよびOSOPERグループのメンバーであることを確認します。詳細は、次のいずれかの項を参照してください。


注意:

既存ユーザーを使用および変更する前に、必要に応じてシステム管理者に連絡してください。 


Oracleソフトウェア所有者ユーザーの作成

Oracleソフトウェア所有者ユーザーが存在しない、または新しいOracleソフトウェア所有者ユーザーが必要な場合は、次の手順で作成します。次の手順では、既存のユーザーですでに使用されていないかぎり、ユーザー名にはoracleを使用します。

  1. 次のコマンドを入力して、oracleユーザーを作成します。

    # /usr/sbin/useradd -u 200 -g oinstall -G dba[,oper] oracle
    
    

    前述のコマンドの意味は、次のとおりです。

    • -uオプションは、ユーザーIDを指定します。システムによって自動的にユーザーID番号を生成するようにできるため、このコマンド・フラグの使用は任意です。ただし、oracleユーザーID番号は、この後のインストール前の作業で必要になるため、記録しておく必要がります。

    • -gオプションは、プライマリ・グループを指定します。プライマリ・グループは、oinstallなどのOracle Inventoryグループである必要があります。

    • -Gオプションは、セカンダリ・グループを指定します。セカンダリ・グループには、OSDBAグループと、必要に応じてOSOPERグループを含める必要があります。たとえば、dbaまたはdba,operです。

  2. oracleユーザーのパスワードを設定します。

    # passwd oracle
    
    

    「nobodyユーザーが存在するかどうかの確認」を参照してください。

既存のOracleソフトウェア所有者ユーザーの変更

oracleユーザーは存在するが、プライマリ・グループがoinstallではない場合、またはユーザーが適切なOSDBAまたはOSOPERグループのメンバーではない場合は、次のコマンドで変更します。-gオプションでプライマリ・グループを指定し、-Gオプションで必要なセカンダリ・グループを指定します。

# /usr/sbin/usermod -g oinstall -G dba[,oper] oracle

他のすべてのクラスタ・ノードでこの手順を繰り返します。

nobodyユーザーが存在するかどうかの確認

ソフトウェアをインストールする前に、次の手順に従って、nobodyユーザーがシステムに存在することを確認します。

  1. 次のコマンドを入力して、nobodyユーザーが存在するかどうかを確認します。

    # id nobody
    
    

    このコマンドの出力結果にnobodyユーザーの情報が表示された場合、このユーザーを作成する必要はありません。

  2. nobodyユーザーが存在しない場合は、次のコマンドを入力して作成します。

    # /usr/sbin/useradd nobody
    
    
  3. 他のすべてのクラスタ・ノードでこの手順を繰り返します。

他のクラスタ・ノードでの同一ユーザーおよびグループの作成


注意:

次の手順は、ローカル・ユーザーおよびグループを使用している場合にのみ実行する必要があります。NISなどのディレクトリ・サービスで定義されたユーザーおよびグループを使用している場合、各クラスタ・ノードのユーザーおよびグループはすでに同一です。 


Oracleソフトウェア所有者ユーザー、Oracle Inventory、OSDBAグループおよびOSOPERグループは、すべてのクラスタ・ノードに存在し、また同一である必要があります。同一のユーザーおよびグループを作成するには、ユーザーおよびグループを作成したノードで割り当てられたユーザーIDおよびグループIDを確認してから、他のクラスタ・ノードで同じ名前とIDを持つユーザーおよびグループを作成する必要があります。

ユーザーIDおよびグループIDの確認

Oracleソフトウェア所有者ユーザーのユーザーID(UID)と、Oracle Inventoryグループ、OSDBAグループおよびOSOPERグループのグループID(GID)を確認するには、次の手順を実行します。

  1. 次のコマンドを入力します。

    # id oracle
    
    

    このコマンドの出力結果は、次のようになります。

    uid=440(oracle) gid=200(oinstall) groups=201(dba),202(oper)
    
    
  2. 表示された情報から、oracleユーザーのユーザーID(UID)および所属するグループのグループID(GID)を特定します。

他のクラスタ・ノードでのユーザーおよびグループの作成

他のクラスタ・ノードでユーザーおよびグループを作成するには、各ノードで次の手順を繰り返します。

  1. 次のクラスタ・ノードへrootでログインします。

  2. 次のコマンドを入力して、oinstallおよびdbaグループを作成します。また、必要に応じて、operグループを作成します。-gオプションを使用して、各グループに正しいGIDを指定します。

    # /usr/sbin/groupadd -g 200 oinstall
    # /usr/sbin/groupadd -g 201 dba
    # /usr/sbin/groupadd -g 202 oper
    
    


    注意:

    グループがすでに存在している場合は、必要に応じてgroupmodコマンドを使用してそのグループを変更します。このノードのグループに、同じグループIDが使用できない場合、すべてのノードの/etc/groupファイルを表示し、どのノードでも使用できるグループIDを特定します。すべてのノードのグループにそのIDを指定する必要があります。 


  3. 次のコマンドを入力して、oracleユーザーを作成します。

    # /usr/sbin/useradd -u 200 -g oinstall -G dba[,oper] oracle
    
    

    前述のコマンドの意味は、次のとおりです。

  4. oracleユーザーのパスワードを設定します。

    # passwd oracle
    

すべてのクラスタ・ノードでのSSHの構成

Oracle Real Application Clustersをインストールして使用する前に、すべてのクラスタ・ノードでoracleユーザー用のセキュア・シェル(SSH)を構成する必要があります。Oracle Universal Installerは、インストール中にsshおよびscpコマンドを使用して、他のクラスタ・ノードに対してリモート・コマンドを実行し、そのクラスタ・ノードにファイルをコピーします。これらのコマンドを使用する際にパスワードを求めるプロンプトが表示されないように、SSHを構成する必要があります。


注意:

この項では、OpenSSHバージョン3の構成方法について説明します。SSHが使用できない場合、Oracle Universal Installerは、かわりにrshおよびrcpの使用を試みます。ただし、ほとんどのLinux Systemsでは、デフォルトではこれらのサービスを使用できません。

次のコマンドを入力して、SSHが実行されているかどうかを確認します。

$ pgrep sshd

SSHが実行されている場合、このコマンドの結果はプロセスID番号になります。SSHの詳細を参照するには、次のコマンドを入力してください。

$ man ssh

また、Oracle Netコンフィギュレーション・アシスタント(NetCA)およびデータベース・コンフィギュレーション・アシスタント(DBCA)では、scpおよびsshがパス/usr/local/binに配置されている必要があることに注意してください。scpおよびsshがこの場所にない場合は、scpおよびsshが検出される場所へのシンボリック・リンクを/usr/local/binに作成します。 


クラスタ・メンバー・ノードでのSSHの構成

SSHを構成するには、最初に各クラスタ・ノードにRSA鍵およびDSA鍵を作成してから、それらの鍵をすべてのクラスタ・ノード・メンバーから各ノードの認証鍵ファイルにコピーする必要があります。SSHファイルは、rootおよびoracleユーザーによってのみ読取り可能である必要があります。SSHが他のユーザーによってアクセス可能である場合、秘密鍵は無視されます。

SSHを構成するには、次の手順を実行します。

各ノードでのRSA鍵およびDSA鍵の作成:

各ノードに対し、次の手順を実行します。

  1. oracleユーザーでログインします。

  2. 必要に応じて、oracleユーザーのホーム・ディレクトリに.sshディレクトリを作成して適切な権限を設定します。

    $ mkdir ~/.ssh
    $ chmod 700 ~/.ssh
    $ chmod 700 
    
    
  3. 次のコマンドを入力してバージョン2のSSHプロトコル用のRSA鍵を生成します。

    $ /usr/bin/ssh-keygen -t rsa
    
    

    プロンプトで、次の手順を実行します。

    • 鍵ファイルには、デフォルトの位置を使用します。

    • oracleユーザーのパスワードとは異なるパス・フレーズを入力して確認します。

    このコマンドによって、公開鍵が~/.ssh/id_rsa.pubファイルに、秘密鍵が~/.ssh/id_rsaファイルに書き込まれます。秘密鍵は、他のユーザーには配布しないでください。

  4. 次のコマンドを入力してバージョン2のSSHプロトコル用のDSA鍵を生成します。

    $ /usr/bin/ssh-keygen -t dsa
    
    

    プロンプトで、次の手順を実行します。

    • 鍵ファイルには、デフォルトの位置を使用します。

    • oracleユーザーのパスワードとは異なるパス・フレーズを入力して確認します。

    このコマンドによって、公開鍵が~/.ssh/id_dsa.pubファイルに、秘密鍵が~/.ssh/id_dsaファイルに書き込まれます。秘密鍵は、他のユーザーには配布しないでください。

認証鍵ファイルへの鍵の追加

次の手順を実行します。

  1. ローカル・ノードで、認証鍵ファイル(~/.ssh/authorized_keys)が存在するかどうかを確認します。認証鍵ファイルがすでに存在する場合は、手順2に進みます。存在しない場合は、次のコマンドを入力します。

    $ touch ~/.ssh/authorized_keys
    $ cd ~/.ssh
    $ ls
    
    

    作成されたid_dsa.pub鍵およびid_rsa.pub鍵が表示されます。

  2. SSHを使用して、~/.ssh/id_rsa.pubおよび~/.ssh/id_dsa.pubファイルの内容を~/.ssh/authorized_keysファイルにコピーし、oracleユーザー・パスワードを指定するように求められたら指定します。次の構文例に示すこの手順では、node1およびnode2の2ノードのクラスタを使用し、oracleユーザーのパスは/home/oracleです。

    [oracle@node1 .ssh]$ ssh node1 cat /home/oracle/.ssh/id_rsa.pub >> authorized_keys
    oracle@node1's password:
    [oracle@node1 .ssh]$ ssh node1 cat /home/oracle/.ssh/id_dsa.pub >> authorized_keys
    [oracle@node1 .ssh$ ssh node2 cat /home/oracle/.ssh/id_rsa.pub >> authorized_keys
    oracle@node2's password:
    [oracle@node1 .ssh$ ssh node2 cat /home/oracle/.ssh/id_dsa.pub >>authorized_keys
    oracle@node2's password:
    


    注意:

    クラスタ内の各ノードに対して、この手順を繰り返します。 


  3. SCP(セキュア・コピー)またはSFTP(セキュアFTP)を使用して、authorized_keysファイルをリモート・ノードのoracleユーザーの.sshディレクトリにコピーします。次の例では、node2と呼ばれるノードに対してSCPを使用します。oracleユーザーのパスは/home/oracleです。

    [oracle@node1 .ssh]scp authorized_keys node2:/home/oracle/.ssh/
    
    
  4. 各クラスタ・ノード・メンバーに対して手順2および3を繰り返します。クラスタ・ノード・メンバーにする最後のノードのauthorized_keysファイルに各クラスタ・ノード・メンバーから鍵を追加した後、SCPを使用して、完成されたauthorized_keysファイルを各クラスタ・ノード・メンバーに再度コピーします。


    注意:

    各ノードのoracleユーザーの/.ssh/authorized_keysファイルには、すべてのクラスタ・ノードで生成した/.ssh/id_rsa.pubおよび/.ssh/id_dsa.pubファイルのすべての内容が含まれている必要があります。 


  5. すべてのクラスタ・ノードのoracleユーザーの/.ssh/authorized_keysファイルに対する権限を変更します。

    $ chmod 600 ~/.ssh/authorized_keys
    
    

    この時点では、sshを使用して、他のノードにログインまたは他のノードでコマンドを実行する場合、DSA鍵の作成時に指定したパス・フレーズの入力を求めるプロンプトが表示されます。

クラスタ・メンバー・ノードでのSSHユーザー等価関係の有効化

パス・フレーズを求めるプロンプトが表示されることなくsshおよびscpコマンドをOracle Universal Installerで使用できるようにするには、次の手順を実行します。

  1. Oracle Universal Installerを実行するシステムにoracleユーザーとしてログインします。

  2. 次のコマンドを入力します。

    $ exec /usr/bin/ssh-agent $SHELL
    $ /usr/bin/ssh-add
    
    
  3. プロンプトで、生成した各鍵に対するパス・フレーズを入力します。

    SSHが適切に構成されていれば、パスワードまたはパス・フレーズを求めるプロンプトは表示されることなくsshscpコマンドを使用できます。

  4. リモート端末で作業を行っていて、そのローカル・ノードのみが表示されている場合(通常は、この状態になります)、次の構文を使用して、環境変数DISPLAYを設定します。

    Bourne、KornおよびBashシェル:

    $ export DISPLAY=hostname:0
    
    

    Cシェル:

    $ setenv DISPLAY 0
    
    

    たとえば、Bashシェルを使用していて、ホスト名がnode1の場合は、次のコマンドを入力します。

    $ export DISPLAY=node1:0
    
    
  5. SSH構成をテストするには、同じ端末セッションから次のコマンドを入力して、各クラスタ・ノードの構成をテストします。nodename1nodename2などは、クラスタ内のノード名です。

    $ ssh nodename1 date
    $ ssh nodename2 date
        .
        .
        .
    
    

    これらのコマンドによって、各ノードに設定された日付が表示されます。

    パスワードまたはパス・フレーズを求めるノードがある場合、そのノードの~/.ssh/authorized_keysファイルに適切な公開鍵が含まれているかを確認します。

    リモート・クライアントを使用してローカル・ノードに接続しているときに、xauthデータがなく、X11転送に偽の認証データを使用することを示す警告メッセージが表示された場合は、認証鍵ファイルは適切に構成されているが、ssh構成でX11転送が有効になっていることを示しています。これを解決するには、手順6に進みます。


    注意:

    特定のシステムからのノードの接続に初めてSSHを使用した場合、次のようなメッセージが表示されることがあります。

    The authenticity of host 'node1 (140.87.152.153)' can't be established.
    RSA key fingerprint is 7z:ez:e7:f6:f4:f2:4f:8f:9z:79:85:62:20:90:92:z9.
    Are you sure you want to continue connecting (yes/no)?

    プロンプトでyesを入力して、次に進みます。再度、このシステムからこのノードに接続したときには、このメッセージは表示されなくなります。

    日付以外のメッセージまたはテキストが表示された場合は、インストールが失敗する可能性があります。これらのコマンドを入力したときに日付のみが表示されるように、必要な変更を行います。

    ログイン・スクリプト内の出力を生成する部分または入力を求める部分は、シェルが対話型の場合にのみ実行されるように記述する必要があります。 


  6. X11転送によってインストールが失敗しないように、次の手順に従って、Oracleソフトウェア所有者ユーザー用にユーザー・レベルのSSHクライアント構成ファイルを作成します。

    1. テキスト・エディタを使用して、~oracle/.ssh/configファイルを編集または作成します。

    2. ForwardX11属性がnoに設定されていることを確認します。次に例を示します。

      Host *
            ForwardX11 no
      
      
  7. Oracle Universal Installerは、このセッションから実行する必要があることに注意してください。別の端末セッションからインストーラを起動するには、手順2および手順3を繰り返す必要があります。

Oracle Clusterwareのインストール中にsttyコマンドによって発生するエラーの防止

Oracle Clusterwareのインストール中、Oracle Universal Installerは、SSH(使用可能な場合)を使用してコマンドを実行したり、他のノードにファイルをコピーします。システム上の隠しファイル(.bashrcや.cshrcなど)にsttyコマンドが含まれていると、インストール中にエラーが発生します。

この問題を防止するには、すべてのSTDERR出力が停止されるようにこれらのファイルを変更する必要があります。次に例を示します。

oracleユーザーの環境の構成

Oracle Universal Installerは、oracleアカウントから実行します。ただし、Oracle Universal Installerを起動する前に、oracleユーザーの環境を構成する必要があります。

環境を構成するには、次の設定を行う必要があります。

また、PATH変数には、/usr/X11R6/binの前に$ORACLE_HOME/binが含まれていることを確認する必要もあります。

oracleユーザーの環境を設定するには、次の手順を実行します。

  1. X端末(xterm)などの端末セッションを新規に開始します。

  2. 次のコマンドを入力して、このシステムでX Windowアプリケーションが表示可能であることを確認します。

    $ xhost + hostname
    
    

    hostnameは、ローカル・ホストの名前です。

  3. ソフトウェアをインストールするシステムにまだログインしていない場合は、oracleユーザーでそのシステムにログインします。

  4. oracleユーザーでログインしていない場合は、ユーザーをoracleに切り替えます。

    $ su - oracle
    
    
  5. 次のコマンドを入力して、oracleユーザーのデフォルトのシェルを確認します。

    $ echo $SHELL
    
    
  6. テキスト・エディタでoracleユーザーのシェル起動ファイルを開きます。


    注意:

    Red Hat Linuxで、.bash_profileは、Bashシェル・ユーザーの起動ファイルです。 


    • Bourneシェル(sh)、Bashシェル(bash)またはKornシェル(ksh):

      % vi .bash_profile
      
      
    • Cシェル(cshまたはtcsh

      % vi .login
      
      
  7. 次のように行を入力または編集して、デフォルトのファイル・モード作成マスクの値に022を指定します。

    umask 022
    
    
  8. 環境変数ORACLE_SIDORACLE_HOMEまたはORACLE_BASEがファイルに設定されている場合は、そのファイルから該当する行を削除します。

  9. ファイルを保存して、テキスト・エディタを終了します。

  10. シェル起動スクリプトを実行するには、次のいずれかのコマンドを入力します。

    • Red Hat Enterprise LinuxのBashシェル:

      $ . ./.bash_profile
      
      
    • Bourne、BashまたはKornシェル:

      $ . ./.profile
      
      
    • Cシェル:

      % source ./.login
      
      
  11. ローカル・システムにソフトウェアをインストールしていない場合は、次のコマンドを入力してXアプリケーションをローカル・システムに表示します。

    • Bourne、BashまたはKornシェル:

      $ DISPLAY=local_host:0.0 ; export DISPLAY
      
      
    • Cシェル:

      % setenv DISPLAY local_host:0.0
      
      

    この例で、local_hostは、Oracle Universal Installerを表示するために使用するシステム(ご使用のワークステーションまたはPC)のホスト名またはIPアドレスです。

  12. /tmpディレクトリの空きディスク領域が400MB未満である場合は、空き領域が400MB以上のファイル・システムを選択し、環境変数TEMPおよびTMPDIRを設定してこのファイル・システムの一時ディレクトリを指定します。


    注意:

    Oracle RACのインストール用の一時ファイル・ディレクトリ(通常、/tmp)の場所として、共有ファイル・システムは使用できません。共有ファイル・システムに/tmpを配置すると、インストールは失敗します。 


    1. df -hコマンドを使用して、十分な空き領域を持つ適切なファイル・システムを選択します。

    2. 必要に応じて、次のコマンドを入力し、選択したファイル・システムに一時ディレクトリを作成して、そのディレクトリに適切な権限を設定します。

      $ su - root
      # mkdir /mount_point/tmp
      # chmod 775 /mount_point/tmp
      # exit
      
      
    3. 次のコマンドを入力して、環境変数TEMPおよびTMPDIRを設定します。

      • Bourne、BashまたはKornシェル:

        $ TEMP=/mount_point/tmp
        $ TMPDIR=/mount_point/tmp
        $ export TEMP TMPDIR
        
        
      • Cシェル:

        % setenv TEMP /mount_point/tmp
        % setenv TMPDIR /mount_point/tmp
        
        

Linuxのcvuqdiskパッケージのインストール

Red HatまたはSUSE Linuxを使用している場合は、オペレーティング・システムのcvuqdiskパッケージをダウンロードしてインストールする必要があります。cvuqdiskがインストールされていない状態でCVUを実行すると、CVUは共有ディスクを検出できずに、「パッケージcvuqdiskがインストールされていません。」というメッセージを表示します。ハードウェア(i386またはItaniumの場合、ia64)にcvuqdisk rpmを使用します。

cvuqdisk RPMをインストールするには、次の手順を実行します。


注意:

必要に応じて、次の行をCRS_home/cv/admin/cvuconfigファイルに追加し、CVUの共有ディスクの検証を無効にするように選択できます。

CV_RAW_CHECK_ENABLED=FALSE 
 

  1. cvuqdisk RPMパッケージの場所を確認します。このパッケージは、インストール・メディアのclusterware/rpmディレクトリにあります。Oracle Clusterwareをすでにインストールしている場合、これはCRS_home/rpmディレクトリにあります。

  2. cvuqdiskパッケージをクラスタの各ノードにコピーします。各ノードで同じバージョンのLinuxが実行されていることを確認する必要があります。

  3. rootユーザーでログインします。

  4. 次のコマンドを使用して、cvuqdiskパッケージの既存バージョンがあるかどうかを確認します。

    # rpm -qi cvuqdisk
    
    

    既存バージョンがある場合は、次のコマンドを入力して既存バージョンを削除します。

    rpm -e cvuqdisk
    
    
  5. cvuqdiskを所有しているグループを指すように、環境変数CVUQDISK_GRPを設定します。通常は、oinstallです。

  6. 次のコマンドを使用して、cvuqdiskパッケージをインストールします。

    rpm -iv cvuqdisk-1.0.1-1.rpm
    
    

ハードウェア要件の確認

各システムは、次の最小ハードウェア要件を満たしている必要があります。

システムが各要件を満たしていることを確認するには、次の手順を実行します。

  1. 次のコマンドを入力して、物理RAMのサイズを確認します。

    # grep MemTotal /proc/meminfo
    
    

    システムに搭載されている物理RAMのサイズが要件のサイズより少ない場合、次の手順に進む前にメモリーを増設する必要があります。

  2. 次のコマンドを入力して、構成されたスワップ領域のサイズを確認します。

    # grep SwapTotal /proc/meminfo
    
    

    追加のスワップ領域を構成する(必要な場合)方法については、ご使用のオペレーティング・システムのマニュアルを参照してください。

  3. 次のコマンドを入力して、/tmpディレクトリで使用できるディスク領域の大きさを確認します。

    # df -k /tmp
    
    

    このコマンドでは1KBブロック単位でディスク領域が表示されます。ほとんどのシステムでは、-hフラグ付きのdfコマンド(df -h)を使用して、「24G」や「10M」など、判読可能な書式で出力を表示できます。/tmpディレクトリで使用できるディスク領域が400MB未満の場合(4194304 1k-blocks未満)、次のいずれかの手順を完了します。

    • 必要なディスク領域を確保するために、/tmpディレクトリから不要なファイルを削除します。

    • oracleユーザーの環境設定(後述)の際に、環境変数TEMPおよびTMPDIRを設定します。

    • /tmpディレクトリを含むファイル・システムを拡張します。ファイル・システムの拡張については、必要に応じてシステム管理者に連絡してください。

  4. 次のコマンドを入力して、システムの空きディスク領域の大きさを確認します。

    # df -k
    
    

    次の表に、各インストール・タイプのソフトウェア・ファイルの概算のディスク領域要件を示します。

    インストール・タイプ  ソフトウェア・ファイルの要件(GB) 

    Enterprise Edition 

    1.5以上 

    Standard Edition 

    1.5以上 

    カスタム(最大) 

    1.5以上 

  5. 次のコマンドを入力して、システムのアーキテクチャでソフトウェアを実行できるかどうかを確認します。

    # grep "model name" /proc/cpuinfo
    
    


    注意:

    このコマンドの出力結果に、プロセッサのタイプが表示されます。64-bitアーキテクチャにインストールする場合は、プロセッサのアーキテクチャが、インストールするOracleソフトウェアのリリースの要件と一致していることを確認します。 


ネットワーク要件の確認

Oracle Real Application Clusters環境に必要なネットワーク・ハードウェアおよびインターネット・プロトコル(IP)・アドレスがあるかを確認します。


注意:

Oracle RAC環境でサポートされるネットワーク・プロトコルおよびハードウェアの最新情報は、次のOracleMetaLink Webサイトの「Certify」ページを参照してください。

http://metalink.oracle.com
 

ネットワーク・ハードウェア要件

クラスタ内の各ノードは、次の要件を満たしている必要があります。

ネットワーク・パラメータの要件

共有記憶域にNFSを使用している場合は、NFSバッファ・サイズ・パラメータ(rsizeおよびwsize)の値を16384以上に設定する必要があります。推奨は32768です。

たとえば、rsizeおよびwsizeバッファ設定を16384にして使用する場合は、次のエントリで各ノードの/etc/fstabファイルを更新します。

clusternode:/vol/DATA/oradata  /home/oracle/netapp     nfs     
rw,bg,vers=3,tcp,hard,nointr,timeo=600,rsize=32768,wsize=32768,actimeo=0  1 2

IPアドレス要件

インストールを開始する前に、各ノードで使用可能な次のIPアドレスを準備しておく必要があります。

たとえば、各ノードに1つのパブリック・インタフェースと1つのプライベート・インタフェースがある2ノードのクラスタの場合、ネットワーク・インタフェースとして、次の表に示す構成が考えられます。ここでは、ホスト・ファイルは/etc/hostsです。

ノード  インタフェース名  種類  IPアドレス  登録先 

rac1 

rac1 

パブリック 

143.46.43.100 

DNS(これが使用できない場合はホスト・ファイル) 

rac1 

rac1-vip 

仮想 

143.46.43.104 

DNS(これが使用できない場合はホスト・ファイル) 

rac1 

rac1-priv 

プライベート 

10.0.0.1 

ホスト・ファイル 

rac2 

rac2 

パブリック 

143.46.43.101 

DNS(これが使用できない場合はホスト・ファイル) 

rac2 

rac2-vip 

仮想 

143.46.43.105 

DNS(これが使用できない場合はホスト・ファイル) 

rac2 

rac2-priv 

プライベート 

10.0.0.2 

ホスト・ファイル 

VIPのフェイルオーバーを有効にするために、前述の表に示す構成では、同じサブネット(143.46.43)で両方のノードのパブリックおよびVIPアドレスを定義しています。ノードまたはインターコネクトに障害が発生すると、関連付けられているVIPが動作可能なインスタンスに割り当てられ、そのVIPを介して接続しているクライアントに、障害が迅速に通知されます。アプリケーションおよびクライアントが透過的アプリケーション・フェイルオーバー・オプションを使用して構成されている場合、そのクライアントは動作可能なインスタンスに再接続されます。

ノードの時刻要件

インストールを開始する前に、クラスタ内の各メンバー・ノードが、できるかぎり同じ日時に設定されいることを確認します。このためには、すべてのノードで同一Network Time Protocolサーバーを参照して、オペレーティング・システムのNetwork Time Protocol機能を使用することをお薦めします。

ネットワーク要件の設定

各ノードが要件を満たしていることを確認するには、次の手順を実行します。

  1. 必要に応じて、パブリックおよびプライベート・ネットワーク用のネットワーク・アダプタを設置し、パブリックまたはプライベートIPアドレスを使用してこれらを設定します。

  2. パブリック・ネットワーク・インタフェースのホスト名およびIPアドレスをDNSに登録します。

  3. 各ノードに対して、1つの仮想ホスト名および仮想IPアドレスをDNSに登録します。

  4. すべてのノードの/etc/hostsファイルに、すべてのノードの各プライベート・インタフェースについて、次のような行を追加します。ここには、プライベートIPアドレスおよび対応するプライベート・ホスト名を指定します。

    10.0.0.1     rac1-priv1
    
    
  5. すべてのネットワーク・アダプタについて、インタフェース名および対応するIPアドレスを確認するには、次のコマンドを入力します。

    # /sbin/ifconfig
    
    

    出力結果から、パブリックまたはプライベート・ネットワーク・インタフェースとして指定する、すべてのネットワーク・アダプタのインタフェース名およびIPアドレスを確認します。


    注意:

    Oracle ClusterwareおよびRACをインストールする際に、この情報が必要になります。 


  6. NASデバイスまたはNFSマウントを使用しているRACデータベースの場合、パブリックから仮想IPアドレスへのフェイルオーバーでネットワークがハングすることを回避するには、次のコマンドをrootユーザーで入力し、ネーム・サービス・キャッシュ・デーモン(nscd)を有効にします。

    # /sbin/service  nscd start
    
    

CVUを使用したネットワーク設定の検証

oracleユーザーで次の構文を使用してコマンドを入力して、クラスタが構成されているすべてのノード間のノードの接続性を検証します。

/mountpoint/crs/Disk1/cluvfy/runcluvfy.sh comp nodecon -n node_list [-verbose]

前述の構文例のnode_list変数は、クラスタ内のノードのカンマ区切りリストです。このコマンドによって、各クラスタ・ノードで使用可能なすべてのネットワーク・インタフェースが検出され、検出されたネットワーク・インタフェースを介したすべてのノード間の接続性が検証されます。

-verboseオプションは、CVUによるシステム検証の進捗状況および検証結果の詳細を表示する場合に選択します。

たとえば、node1およびnode2で構成され、マウント・ポイントが/dev/dvdromの2ノードのクラスタでノードの接続性を検証して、CVUによる検証の進捗状況とサマリーを表示するには、次のコマンドを入力します。

/dev/dvdrom/crs/Disk1/cluvfy/runcluvfy.sh comp nodecon -n node1,node2 -verbose


注意:

このコマンドを使用すると、VIPとしての使用に適しているノードで使用可能なすべてのインタフェースのリストと、すべてのノードに正常に接続されているプライベート・インターコネクトのリストを取得できます。 


ソフトウェア要件の確認

インストールする製品に応じて、次のソフトウェアがシステムにインストールされていることを確認してください。これらの要件を確認するには、「ソフトウェア要件の検証」を参照してください。


注意:

Oracle Universal Installerによって、ご使用のシステムが示された要件を満たしていることを確認する検証が実行されます。これらの検証で問題が検出されないように、Oracle Universal Installerを起動する前に要件を確認してください。

Linuxインストールの場合は、この項で説明するカーネルの確認を実行する前に、デフォルトのLinuxインストールを実行することをお薦めします。これらの手順は、ご使用のオペレーティング・システムに、デフォルトのLinuxインストールの一部であるカーネル・パッケージがインストールされていることを前提としています。 


サポートされているLinuxバージョンおよびリリース時における要件のリストを次に示します。

x86(32-bit)プラットフォームでのソフトウェア要件のリスト

表2-1    Linux x86(32-bit)Systemの要件 
項目  要件 

オペレーティング・システムx86 

  • Red Hat Enterprise Linux AS/ES 3(Update 3以上)

  • Red Hat Enterprise Linux AS/AS 4(Update 1以上)

  • SUSE Linux Enterprise Server 9(Service Pack 2以上)

 

カーネルのバージョン 

システムで、次のバージョン以上のカーネルが実行されている必要があります。

Red Hat Enterprise Linux 3(Update 4):

2.4.21-27.EL

Red Hat Enterprise Linux 4(Update 1):

2.6.9-11.EL

SUSE Linux Enterprise Server 9(Service Pack 2):

2.6.5-7.97 

Red Hat Enterprise Linux 3(Update 2)パッケージ 

次のバージョン以上のパッケージがインストールされている必要があります。

binutils-2.14
compat-db-4.0.14-5
compat-gcc-7.3-2.96.128
compat-gcc-c++-7.3-2.96.128
compat-libstdc++-7.3-2.96.128
compat-libstdc++-devel-7.3-2.96.128
gcc-3.2
glibc-2.3.2-95.27
make-3.79
openmotif-2.2.3
setarch-1.3-1
 

Red Hat Enterprise Linux 4(Update 1)パッケージ 

次のバージョン以上のパッケージがインストールされている必要があります。

binutils-2.15.92.0.2-10.EL4
compat-db-4.1.25-9
control-center-2.8.0-12
gcc-3.4.3-9.EL4
gcc-c++-3.4.3-9.EL4
glibc-2.3.4-2
glibc-common-2.3.4-2
gnome-libs-1.4.1.2.90-44.1
libstdc++-3.4.3-9.EL4
libstdc++-devel-3.4.3-9.EL4
make-3.80-5

注意:

  • openmotif21-2.1.30-11.RHEL4.2 は、Oracleデモのインストールに必要です。

  • GNU Compiler Collection(GCC)2.96は、Red Hat Enterprise Linux 4.0ではサポートされていません。

 

SUSE Linux Enterprise Server 9(Service Pack 2)パッケージ 

gcc-3.3
gcc-c++-3.3.3-43
glibc-2.3.3-98.28
libaio-0.3.98-18
libaio-devel-0.3.98-18
make-3.80
openmotif-libs-2.2.2-519.1
 

PL/SQLのネイティブ・コンパイル、
Pro*C/C++、
Oracle Call Interface、
Oracle C++ Call Interface、
Oracle XML Developer's Kit(XDK) 

これらの製品では、ディストリビューション用に前述したバージョンのGNU CおよびC++コンパイラの使用がサポートされています。 

Oracle JDBC/OCIドライバ 

x86-64 Systemsでは、Oracle JDBC/OCIドライバで、次の任意のJDKバージョンを使用できます。ただし、これらのドライバは、インストールには必要ありません。

  • JNDI拡張機能を組み込んだJDK 1.4.2_03

    http://www.sun.com/java
    
 

Oracle Real Application Clusters 

クラスタ・ファイル・システムの場合は、次のいずれかのオプションを使用します。

Red Hat 3: Oracle Cluster File System(OCFS)

  • バージョン1.0.11-1以上

OCFSには、次のカーネル・パッケージが必要です。

ocfs-support
ocfs-tools
ocfs-kernel_version

前述のリストのkernel_version変数は、OCFSのインストール先オペレーティング・システムのカーネル・バージョンを表します。

注意: OCFSは、データベース・ファイルの記憶域用にクラスタ・ファイル・システムを使用する場合にのみ必要です。データベース・ファイル記憶域に自動ストレージ管理またはRAWデバイスを使用する場合は、OCFSをインストールする必要はありません。

次のURLで、OCFS用カーネル・パッケージを入手し、インストール手順およびOCFSの詳細を参照してください。

http://oss.oracle.com/projects/ocfs/

Red Hat 4: Oracle Cluster File System 2(OCFS2)

  • バージョン1.0.1-1以上

Oracle Cluster File Systemバージョン2については、次のWebサイトを参照してください。

http://oss.oracle.com/projects/ocfs2/

OCFS2の動作保証については、OracleMetaLinkの「Certify」ページを参照してください。

SUSE 9: Oracle Cluster File System 2(OCFS2)

  • OCFS2は、SUSE Linux Enterprise Server 9(Service Pack 2)以上にバンドルされています。

  • SUSE 9を実行する場合は、最新のカーネル(Service Pack 2以上)にアップグレードし、ocfs2-toolsおよびocfs2consoleパッケージをインストールしておく必要があります。

    OCFS2の動作保証については、OracleMetaLinkの「Certify」ページを参照してください。

 

x86(64-bit)プラットフォームでのソフトウェア要件のリスト

表2-2    Linux x86(64-bit)Systemの要件 
項目  要件 

オペレーティング・システムx86(64-bit) 

  • Red Hat Enterprise Linux AS/ES 3(Update 4以上)

    Red Hat Enterprise Linux AS/ES 4(Update 1以上)

  • SUSE Linux Enterprise Server 9(Service Pack 2以上)

 

カーネル・バージョンx86 

システムでは、次のバージョン以上のいずれかのカーネルが実行されている必要があります。

Red Hat Enterprise Linux 3(Update 4):

2.4.21-27.EL

注意: これは、デフォルトのカーネル・バージョンです。

Red Hat Enterprise Linux 4(Update 1):

2.6.9-11.EL

SUSE Linux Enterprise Server 9(Service Pack 2):

2.6.5-7.201 

Red Hat Enterprise Linux 3(Update 4)パッケージ 

次のバージョン以上のパッケージがインストールされている必要があります。

make-3.79.1-17
compat-db 4.0.14-5.1
control-center-2.2.0.1-13
gcc-3.2.3-47
gcc-c++-3.2.3-47
gdb-6.1post-1.20040607.52
glibc-2.3.2-95.30
glibc-common-2.3.2-95.30
glibc-devel-2.3.2-95.30
glibc-devel-2.3.2-95.20 (32 bit)
glibc-devel-2.3.4-2.13.i386 (32-bit)
compat-db-4.0.14-5
compat-gcc-7.3-2.96.128
compat-gcc-c++-7.3-2.96.128
compat-libstdc++-7.3-2.96.128
compat-libstdc++-devel-7.3-2.96.128
gnome-libs-1.4.1.2.90-34.2 (32 bit)
libstdc++-3.2.3-47
libstdc++-devel-3.2.3-47
openmotif-2.2.3-3.RHEL3
sysstat-5.0.5-5.rhel3
setarch-1.3-1
libaio-0.3.96-3
libaio-devel-0.3.96-3

注意: XDKは、Red Hat Enterprise Linux 3でgccを使用する環境ではサポートされていません。 

Red Hat Enterprise Linux 4(Update 1)パッケージ 

次のバージョン以上のパッケージがインストールされている必要があります。

binutils-2.15.92.0.2-10.EL4
binutils-2.15.92.0.2-13.0.0.0.2.x86_64
compat-db-4.1.25-9
control-center-2.8.0-12
gcc-3.4.3-9.EL4
gcc-c++-3.4.3-9.EL4
glibc-2.3.4-2
glibc-common-2.3.4-2
gnome-libs-1.4.1.2.90-44.1
libstdc++-3.4.3-9.EL4
libstdc++-devel-3.4.3-9.EL4
make-3.80-5

注意: XDKは、Red Hat Enterprise Linux 4でgccを使用する環境ではサポートされていません。 

SUSE Linux Enterprise Server 9パッケージ 

次のバージョン以上のパッケージがインストールされている必要があります。

binutils-2.15.90.0.1.1-32.5
gcc-3.3.3-43.24
gcc-c++-3.3.3-43.24
glibc-2.3.3-98.28
gnome-libs-1.4.1.7-671.1
libstdc++-3.3.3-43.24
libstdc++-devel-3.3.3-43.24
make-3.80-184.1
 

PL/SQLのネイティブ・コンパイル、
Pro*C/C++、
Oracle Call Interface、
Oracle C++ Call Interface、
Oracle XML Developer's Kit(XDK) 

これらの製品では、Intel C++ Compiler 8.1以上と、ディストリビューション用に前述したバージョンのGNU CおよびC++コンパイラの使用がサポートされています。

注意: Intel C++ Compiler v8.1以上がサポートされています。ただし、これはインストールに必要ありません。

Red Hat Enterprise Linux 3では、GNU C++コンパイラのバージョン2.2でOracle C++ Call Interface(OCCI)がサポートされています。これは、デフォルトのコンパイラ・バージョンです。また、OCCIは、gcc 3.2.3標準テンプレート・ライブラリを使用するIntel Compiler v8.1でもサポートされています。

Red Hat Enterprise Linux 4.0では、OCCIはGCC 3.4.3をサポートしません。Red Hat Enterprise Linux 4.0でOCCIを使用するには、GCC 3.2.3をインストールする必要があります。

Oracle XML Developer's Kitは、Red Hat Linux 4.0でGCCを使用する環境ではサポートされていません。Intel C++ Compiler(ICC)でのみサポートされています。 

Oracle JDBC/OCIドライバ 

Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンを使用できますが、インストールには必要ありません。

  • Sun JDK 1.5.0(64-bit)

  • Sun JDK 1.5.0 (32-bit)

  • Sun JDK 1.4.2_09(32-bit)

 

Oracle Real Application Clusters 

クラスタ・ファイル・システムの場合は、次のいずれかのオプションを使用します。

Red Hat 3: Oracle Cluster File System(OCFS)

  • バージョン1.0.13-1以上

OCFSには、次のカーネル・パッケージが必要です。

ocfs-support
ocfs-tools
ocfs-kernel_version

前述のリストのkernel_version変数は、OCFSのインストール先オペレーティング・システムのカーネル・バージョンを表します。

注意: OCFSは、データベース・ファイルの記憶域用にクラスタ・ファイル・システムを使用する場合にのみ必要です。データベース・ファイル記憶域に自動ストレージ管理またはRAWデバイスを使用する場合は、OCFSをインストールする必要はありません。

次のURLで、OCFS用カーネル・パッケージを入手し、インストール手順およびOCFSの詳細を参照してください。

http://oss.oracle.com/projects/ocfs/

Red Hat 4: Oracle Cluster File System 2(OCFS2)

  • バージョン1.0.1-1以上

Oracle Cluster File Systemバージョン2については、次のWebサイトを参照してください。

http://oss.oracle.com/projects/ocfs2/

OCFS2の動作保証については、OracleMetaLinkの「Certify」ページを参照してください。

SUSE 9: Oracle Cluster File System 2(OCFS2)

  • OCFS2は、SUSE Linux Enterprise Server 9(Service Pack 2)以上にバンドルされています。

  • SUSE 9を実行する場合は、最新のカーネル(Service Pack 2以上)にアップグレードし、ocfs2-toolsおよびocfs2consoleパッケージをインストールしておく必要があります。

OCFS2の動作保証については、OracleMetaLinkの「Certify」ページを参照してください。 

Linux on Itaniumのソフトウェア要件リスト

表2-3    Linux Itanium(64-bit)Systemの要件 
項目  要件 

オペレーティング・システム 

  • Red Hat Enterprise Linux AS/ES 3.0(Update 3以上)

  • Red Hat Enterprise Linux AS/ES 4.0(Update 1以上)

  • SUSE Linux Enterprise Server 9.0(Service Pack 2以上)

 

カーネル・バージョンItanium 

システムでは、次のバージョン以上のいずれかのカーネルが実行されている必要があります。

Red Hat Enterprise Linux 3.0:

2.4.21-278.EL

Red Hat Enterprise Linux 4.0:

2.6.9-11.EL

SUSE Linux Enterprise Server 9:

2.6.5-139 

Red Hat Enterprise Linux 3.0パッケージ 

make-3.79.1-17
control-center-2.2.0.1-13
gcc-3.2.3-47
gcc-c++-3.2.3-47
gdb-6.1post-1.20040607.52
glibc-2.3.2-95.30
glibc-common-2.3.2-95.30
glibc-devel-2.3.2-95.30
glibc-devel-2.3.2-95.20 (32 bit)
glibc-devel-2.3.4-2.13.i386 (32-bit)
compat-db-4.0.14-5.1
compat-gcc-7.3-2.96.128
compat-gcc-c++-7.3-2.96.128
compat-libstdc++-7.3-2.96.128
compat-libstdc++-devel-7.3-2.96.128
gnome-libs-1.4.1.2.90-34.2 (32 bit)
libstdc++-3.2.3-47
libstdc++-devel-3.2.3-47
openmotif-2.2.3-3.RHEL3
sysstat-5.0.5-5.rhel3
setarch-1.3-1
libaio-0.3.96-3
libaio-devel-0.3.96-3
 

Red Hat Enterprise Linux 4.0パッケージ 

binutils-2.15.92.0.2-10.EL4
compat-db-4.1.25-9
control-center-2.8.0-12
gcc-3.4.3-9.EL4
gcc-c++-3.4.3-9.EL4
glibc-2.3.4-2
glibc-common-2.3.4-2
gnome-libs-1.4.1.2.90-44.1
libstdc++-3.4.3-9.EL4
libstdc++-devel-3.4.3-9.EL4
make-3.80-5
 

SUSE Linux Enterprise Server 9パッケージ 

gcc-3.3.3
gcc-c++-3.3.3
glibc-2.3.3
libaio-0.3.102-1.2ia64
libaio-devel-0.3.102-1.2ia64
make-3.80
 

PL/SQLのネイティブ・コンパイル、
Pro*C/C++、
Oracle Call Interface、
Oracle C++ Call Interface、
Oracle XML Developer's Kit(XDK) 

これらの製品では、Intel C++ Compiler 8.1以上と、ディストリビューション用に前述したバージョンのGNU CおよびC++コンパイラの使用がサポートされています。

注意: Intel C++ Compiler v8.1以上がサポートされています。ただし、これはインストールに必要ありません。Red Hat Enterprise Linux 3では、GNU C++コンパイラのバージョン3.2でOCCIがサポートされています。これは、デフォルトのコンパイラ・バージョンです。また、OCCIは、gcc 3.2.3標準テンプレート・ライブラリを使用するIntel Compiler v8.1でもサポートされています。

Oracle XML Developer's Kitは、Red Hat Linux 4.0でGCCを使用する環境ではサポートされていません。Intel C++ Compiler(ICC)でのみサポートされています。

Red Hat Enterprise Linux 4.0では、Oracle C++ Call Interface(OCCI)によってGCC 3.4.3はサポートされていません。

Red Hat Enterprise Linux 4.0でOCCIを使用するには、GCC 3.2.3をインストールする必要があります。 

Oracle JDBC/OCIドライバ 

Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンを使用できますが、インストールには必要ありません。

  • JNDI拡張機能を組み込んだJDK 1.4.2

注意: 今回のリリースでは、JDK 1.4.2がインストールされます。 

Oracle Real Application Clusters 

クラスタ・ファイル・システムの場合は、次のいずれかのオプションを使用します。

Oracle Cluster File System(OCFS)

  • ItaniumシステムのSUSE Linux Enterprise Server 8の場合はバージョン1.0.13-1以上

  • 他のインストールの場合はバージョン1.0.11-1以上

OCFSには、次のカーネル・パッケージが必要です。

ocfs-support
ocfs-tools
ocfs-kernel_version

前述のリストのkernel_version変数は、OCFSのインストール先オペレーティング・システムのカーネル・バージョンを表します。

注意: OCFSは、データベース・ファイルの記憶域用にクラスタ・ファイル・システムを使用する場合にのみ必要です。データベース・ファイル記憶域に自動ストレージ管理またはRAWデバイスを使用する場合は、OCFSをインストールする必要はありません。

次のURLで、OCFS用カーネル・パッケージを入手し、インストール手順およびOCFSの詳細を参照してください。

http://oss.oracle.com/projects/ocfs/

Oracle Cluster File System 2(OCFS2)

Oracle Cluster File Systemバージョン2については、次のWebサイトを参照してください。

http://oss.oracle.com/projects/ocfs2/

OCFS2の動作保証については、OracleMetaLinkの「Certify」ページを参照してください。

また、自動ストレージ管理のサポート・ライブラリ(ASMLIB)を使用する場合は、次のディストリビューションのASMLIBカーネル・パッケージをインストールします。

Red Hat Enterprise Linux 3.0:

oracleasm 2.4.21-27.EL-1.0.4-2.ia64.rpm

Red Hat Enterprise Linux 4.0:

oracleasm 2.6.9-11.EL-2.0.0-1.ia64.rpm

ASMLIBカーネル・パッケージは、次のURLから入手します。

http://oss.oracle.com/projects/oracleasm/
 

Linux on POWERのソフトウェア要件リスト

表2-4    Linux on POWER Systemの要件 
項目  要件 

オペレーティング・システム(Linux on POWER) 

  • Red Hat Enterprise Linux AS/ES 4(Update 1以上)

  • SUSE Linux Enterprise Server 9(Service Pack 2以上)

 

カーネル・バージョン(Linux on Power) 

  • Red Hat Enterprise Linux 4(Update 1):

    2.6.9-11.EL

  • SUSE Linux Enterprise Server 9:

    Linux 2.6.5-7.191-pseries64

 

Red Hat Enterprise Linux 4パッケージ 

Gmake-3.80-5
gcc-3.4.3-22.1
gcc-ppc32-3.4.3-22.1
gcc-c++-3.4.3-22.1
gcc-c++-ppc32-3.4.3-22.1
glibc-2.3.4-2.9
glibc-2.3.4-29 (64-Bit)
libgcc-3.4.3-9.EL4
libgcc-3.4.3-9.EL4.ppc64.rp
libstdc++-3.4.3-9.EL4
libstdc++-devel-3.4.3-9.EL4
libaio-0.3.103-3
libaio-0.3.103-3 (64-Bit)
libaio-devel-0.3.103-3 (64-Bit)
compat-libstdc++-33-3.2.3-47.3
binutils-2.15.92.0.2-13
 

SUSE Linux Enterprise Server 9パッケージ 

gcc-3.3.3-43.34
gcc-64bit-9-200505240008
gcc-c++-3.3.3-43.34
glibc-2.3.3-98.47
glibc-64bit-9-200506062240
libgcc-3.3.3-43.34
libgcc (64-bit) 9-200505240008
libstdc++-3.3.3-43.34
libstdc++-devel-3.3.3-43.34
libaio-0.3.102-1.2
libaio-64bit-9-200502241152
libaio-devel-0.3.102-1.2
libaio-devel-0.3.102-1.2 (64-bit)
Gmake-3.80-184.1
binutils-2.15.90.0.1.1-32.10
binutils-64bit-9-200505240008
 

C/C++ Runtime Environment 

IBM XL C/C++ Advanced Edition V7.0.1 for Linux Runtime Environment Componentは、次のリンクから無償でダウンロードできます。ライセンスは必要ありません。

http://www-1.ibm.com/support/docview.wss?rs=2030&context=SSJT9L&context=SSENT9&context=SSEP5D&dc=D400&dc=D410&dc=D420&dc=D430&q1=Run-time+Environment+Component&uid=swg24007906&loc=en_US&cs=utf-8&lang=en

また、このリンクからは、XL Optimization Libraries Componentもダウンロードし、インストールする必要があります。 

PL/SQLのネイティブ・コンパイル、
Pro*C/C++、
Oracle Call Interface、
Oracle C++ Call Interface、
Oracle XML Developer's Kit(XDK) 

これらの製品では、ディストリビューション用に前述したバージョンのCおよびC++コンパイラの使用がサポートされています。

注意: IBM XL C/C++コンパイラのバージョン7.0以上もサポートされています。

IBM XL C/C++ Advanced Edition V7.0.1 for Linux on POWERコンパイラをOracleユーザー・アプリケーションに使用する場合は、V7.0.1以上のバージョンが必要です。ダウンロード情報および更新については、次のリンクを参照してください。

http://www-306.ibm.com/software/awdtools/xlcpp/features/linux/

IBM XL C/C++ Advanced Edition V7.0.1 for Linux on POWERコンパイラをインストールすると、IBM XL C/C++ Advanced Edition V7.0.1 for Linux Runtime Environment Componentが自動的にインストールされます。 

Pro*COBOL  

次の製品は、Pro*COBOLでの使用が動作保証されています。

  • Micro Focus Server Express 4.0 SP 2(SLES 9用)

 

Pro*FORTRAN 

XL Fortran Advanced Edition V9.1.1(以上)for Linux  

Oracle JDBC/OCIドライバ 

Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンを使用できますが、インストールには必要ありません。

  • IBM Java 1.4.2 64-bit(SR1a)以上

  • IBM Java 1.4.2 32-bit(SR1a)以上

  • IBM Java 1.3.1 32-bit(SR8)以上(SLES 9用のみ)

注意: 今回のリリースでは、デフォルトでJDK 1.4.2 32-bitがインストールされます。 

Oracle Real Application Clusters 

IBM General Parallel File System(GPFS)バージョン2.3.0.6 

IBM zSeriesベースのLinuxのソフトウェア要件のリスト

表2-5    IBM zSeriesベースのLinuxのシステム要件 
項目  要件 

オペレーティング・システム 

Red Hat Enterprise Linux 4(Update 2以上)

SUSE Linux Enterprise Server(SLES)9(Service Pack 2以上) 

カーネルのバージョン 

システムで、各Linuxディストリビューションの次のバージョン以上のカーネルが実行されている必要があります。

Red Hat Enterprise Linux 4.0(Update 2以上)

2.6.9-22.EL

SUSE Linux Enterprise Server 9(SP2以上):

2.6.5-139  

パッケージ 

次のバージョン以上のパッケージがインストールされている必要があります。

Red Hat Enterprise 4.0:

gcc-3.4.4-2
gcc-c++-3.4.4-2
libgcc-3.4.4-2
libstdc++-devel-3.4.4-2
compat-libgcc-295-2.95.3-81
compat-libstdc++-33-3.2.3-47.3
glibc-2.3.4-2.13
libaio-0.3.103-3
libaio-devel-0.3.103-3
libstdc++-devel 3.4.4-2

SUSE Linux Enterprise Server 9:

gcc-3.3.3-43.34
gcc-c++-3.3.3-43.34
glibc-2.3.3-98.47
glibc-2.3.3-98.28 (64-bit)
libgcc-3.3.3-43.34
libgcc (64 bit) unknown
libstdc++-3.3.3-43.34
libstdc++-devel-3.3.3-43.34
libaio-0.3.102-1.2
libaio-0.3.98-18.3 (64-bit)
libaio-devel-0.3.102-1.2
libaio-devel-0.3.98-18.3 (64-bit)
Gmake-3.80-184.1
 

Pro*COBOL  

次の製品は、Pro*COBOLでの使用が動作保証されています。

  • Red Hat Enterprise 4.0:

    AcuCobol 6.2

  • SUSE Linux Enterprise Server 9:

    Microfocus Server Express 4.0 SP 2

 

Oracle JDBC/OCIドライバ 

Oracle JDBC/OCIドライバでは、次の任意のJDKバージョンを使用できますが、インストールには必要ありません。

  • IBM SDK 1.5以上

  • IBM SDK 1.4.2(64-bit)

  • IBM SDK 1.3.1(31-bit)

  • IBM SDK 1.4.2(31-bit)

注意: 今回のリリースでは、デフォルトでJDK 1.4.2 32-bitがインストールされます。 

Pro*COBOL  

次の製品は、Pro*COBOLでの使用が動作保証されています。

  • Red Hat Enterprise 4.0: AcuCobol 6.

  • SUSE Linux Enterprise Server 9: Microfocus Server Express 4.0 SP 2

 

ソフトウェア要件の検証

システムがこれらの要件を満たしていることを確認するには、次の手順を実行します。

  1. 次のコマンドを入力して、Linuxのディストリビューションおよびバージョンを確認します。

    # cat /etc/issue
    
    


    注意:

    インストール中のハードウェア・プラットフォームの表に示したディストリビューションおよびバージョンのみがサポートされます。Linuxのその他のディストリビューションでのインストールはサポートされていません。 


  2. 必要なカーネル・エラータがインストールされているかどうかを確認するには、ご使用のLinuxディストリビューションで次の手順を実行します。

    Red Hat Enterprise Linux Systems

    次のコマンドを入力します。

    # uname -r
    2.6.9-11.EL
    
    

    この例の出力結果には、システムのカーネル・バージョン(2.6.9)およびエラータ・レベル(11.EL)が表示されます。

    ご使用のディストリビューションに必要なエラータ・レベルを確認します。エラータ・レベルが必要最小限のエラータ更新より以前の場合は、カーネルの最新の更新をインストールします。カーネルの更新は、Red Hatから入手できます。

    SUSE Linux Enterprise Server Systems

    次のコマンドを入力して、必要なカーネル・エラータがSUSE Linux Enterprise Server Systemsにインストールされているかどうかを確認します。

    # uname -r
    2.6.5-7.201
    
    

    この例の出力結果には、カーネル・バージョン(2.6.5-7.201)が表示されます。カーネル・バージョンがSUSEディストリビューションの必要最小限の更新より小さい場合は、SUSEに連絡してカーネルの更新を入手し、インストールします。

  3. 次のコマンドを入力して、必要なパッケージがインストールされているかどうかを確認します。

    # rpm -q package_name
    
    

    パッケージがインストールされていない場合は、Linuxの配布メディアからインストールするか、またはLinuxのベンダーのサイトから必要なバージョンのパッケージをダウンロードしてインストールします。

  4. 次のコマンドを入力して、OCFSがインストールされているかどうかを確認します。

    # rpm -qa | grep ocfs
    
    

    次のコマンドを入力して、OCFSがロードされていることを確認します。

    # /etc/init.d/ocfs status
    
    

    Linux on POWERおよびIBM zSeriesベースのLinuxで、WebSphere MQのCSDが必要な場合は、ダウンロードおよびインストール情報について次のWebサイトを参照してください。

    http://www-306.ibm.com/software/integration/wmq/support/
    
    
  5. Red Hat Enterprise Linux 4で、hugepagesを使用したり、Very Large Memory(VLM)ウィンドウ・サイズを使用するには、プロセスごとにロックされるメモリーのデフォルトの最大サイズを増加する必要があります。プロセスごとにロックされる最大メモリー制限を増加するには、次の行を/etc/security/limits.conf ファイルに追加します。oracleは、データベースを管理するユーザーです。

    oracle soft memlock 3145728
    oracle hard memlock 3145728
    
    
  6. OracleデータベースがRed Hat Enterprise Linux AS 2.1(Itanium)、SUSE Linux Enterprise Server 9またはRed Hat Enterprise Linux 4でhugepagesを使用できるようにするには、カーネル・パラメータvm.nr_hugepagesの値を設定して、保存する大きなページの数を指定します。

カーネル・パラメータの構成


注意:

次の項には、カーネル・パラメータおよびシェル制限の推奨値のみを示します。本番データベース・システムでは、これらの値を調整してシステムのパフォーマンスを最適化することをお薦めします。カーネル・パラメータの調整については、ご使用のオペレーティング・システムのマニュアルを参照してください。 


カーネル・パラメータが、次の表に示されている推奨値以上の値に設定されていることを確認してください。表の後に、値を確認して設定する手順を示します。

すべてのノードで、カーネル・パラメータが、次の表に示されている推奨値以上の値に設定されていることを確認してください。表の後に、値を確認して設定する手順を示します。

パラメータ    ファイル 

semmsl
semmns
semopm
semmni 

250
32000
100
128 

/proc/sys/kernel/sem 

shmmax 

物理メモリーの半分のサイズ(バイト) 

/proc/sys/kernel/shmmax 

shmmni 

4096 

/proc/sys/kernel/shmmni 

shmall 

2097152 

/proc/sys/kernel/shmall 

file-max 

65536 

/proc/sys/fs/file-max 

ip_local_port_range 

最小: 1024

最大: 65000 

/proc/sys/net/ipv4/ip_local_port_range 

rmem_default 

1048576 

/proc/sys/net/core/rmem_default 

rmem_max 

1048576 

/proc/sys/net/core/rmem_max 

wmem_default 

262144 

/proc/sys/net/core/wmem_default 

wmem_max 

262144 

/proc/sys/net/core/wmem_max 


注意:

パラメータに対する現行の値がこの表の値より大きい場合は、パラメータの値を変更しないでください。 


これらのカーネル・パラメータに指定されている現行の値を表示し、必要に応じて変更するには、次の手順を実行します。

  1. 次の表に示すコマンドを入力して、カーネル・パラメータの現行の値を表示します。


    注意:

    現行の値を書き留め、変更が必要な値がわかるようにしておいてください。 


    パラメータ  コマンド 

    semmsl、semmns、semopmおよびsemmni 

    # /sbin/sysctl -a | grep sem

    このコマンドの出力結果には、セマフォ・パラメータの値がsemmsl、semmns、semopmおよびsemmniの順に表示されます。 

    shmall、shmmaxおよびshmmni 

    # /sbin/sysctl -a | grep shm 

    file-max 

    # /sbin/sysctl -a | grep file-max 

    ip_local_port_range 

    # /sbin/sysctl -a | grep ip_local_port_range

    このコマンドの出力結果には、ポート番号の範囲が表示されます。 

    rmem_default、rmem_max、wmem_defaultおよびwmem_max 

    # /sbin/sysctl -a | grep net core 

  2. いずれかのカーネル・パラメータの値が推奨値と異なる場合は、次の処理を実行します。

    テキスト・エディタを使用して/etc/sysctl.confファイルを作成または編集し、次のような行を追加または編集します。


    注意:

    変更が必要なカーネル・パラメータ値の行のみを含めてください。セマフォ・パラメータ(kernel.sem)は、4つすべての値を指定する必要があります。ただし、システム・パラメータの現行の値が推奨値より大きい場合は、その値を使用してください。 


    kernel.shmall = 2097152
    kernel.shmmax = 2147483648
    kernel.shmmni = 4096
    kernel.sem = 250 32000 100 128
    fs.file-max = 65536
    net.ipv4.ip_local_port_range = 1024 65000
    net.core.rmem_default = 1048576
    net.core.rmem_max = 1048576
    net.core.wmem_default = 262144
    net.core.wmem_max = 262144
    
    

    /etc/sysctl.confファイルで指定することによって、システムを再起動しても値が保持されます。

    Red Hat Systemsの場合、システムを再起動せずに、これらの変更を有効にするには、次のコマンドを入力します。

    /sbin/sysctl -p
    
    
  3. クラスタ内の他のすべてのノードで手順1および2を繰り返します。

    SUSE Systemsの場合にのみ、次のコマンドを入力して、システムの再起動時に/etc/sysctl.confファイルが読み込まれるようにします。

    # /sbin/chkconfig boot.sysctl on
    
    
  4. SUSE Linux Enterprise Server 9.0でのみ、カーネル・パラメータdisable_cap_mlockを次のように設定します。

    disable_cap_mlock = 1
    
    
  5. /etc/sysctl.confファイルでカーネル・パラメータの値を更新した後、コンピュータを再起動するか、またはコマンドsysctl -pを実行して、/etc/sysctl.confファイルに対して行った変更が、アクティブなカーネル・メモリーで有効になるようにします。

oracleユーザーのシェル制限の設定

Linux Systemsでソフトウェアのパフォーマンスを向上させるには、oracleユーザーに対する次のシェル制限を増やす必要があります。

シェル制限  limits.conf内の項目  ハード制限 

オープン・ファイル記述子の最大数 

nofile 

65536 

ユーザー1人当たりに使用可能なプロセスの最大数 

nproc 

16384 

シェル制限を増やすには、次の手順を実行します。

  1. /etc/security/limits.confファイルに次の行を追加します。

    oracle              soft    nproc   2047
    oracle               hard    nproc   16384
    oracle               soft    nofile  1024
    oracle               hard    nofile  65536
    
    
  2. /etc/pam.d/loginファイルに次の行が存在しない場合は、追加または編集します。

    session    required     pam_limits.so
    
    
  3. oracleユーザーのデフォルトのシェルに応じて、デフォルトのシェルの起動ファイルを次のように変更します。

    • Bourne、BashまたはKornシェルの場合は、/etc/profileファイル(またはSUSE Systems上の/etc/profile.localファイル)に次の行を追加します。

      if [ $USER = "oracle" ]; then
              if [ $SHELL = "/bin/ksh" ]; then
                    ulimit -p 16384
                    ulimit -n 65536
              else
                    ulimit -u 16384 -n 65536
              fi
      fi
      
      
    • Cシェル(cshまたはtcsh)の場合は、/etc/csh.loginファイル(またはSUSE Systems上の/etc/csh.login.localファイル)に次の行を追加します。

      if ( $USER == "oracle" ) then
              limit maxproc 16384
              limit descriptors 65536
      endif
      
      
  4. 他のすべてのクラスタ・ノードでこの手順を繰り返します。

次の手順に進むには、「必要なソフトウェア・ディレクトリの選択」を参照してください。

CVUを使用したハードウェアおよびオペレーティング・システム設定の検証

oracleユーザーで次のコマンド構文を使用して、ハードウェアおよびオペレーティング・システム設定を確認するためのクラスタ検証ユーティリティ(CVU)のステージ検証を開始します。

/mountpoint/crs/Disk1/cluvfy/runcluvfy.sh stage -post hwos -n node_list [-verbose]

前述の構文例のnode_list変数は、クラスタ内のノードのカンマ区切りリストです。たとえば、node1およびnode2で構成され、マウント・ポイントが/dev/dvdrom/の2ノードのクラスタのハードウェアおよびオペレーティング・システムを、検証結果のみを出力するオプションを指定して検証するには、次のコマンドを入力します。

/dev/dvdrom/crs/Disk1/cluvfy/runcluvfy.sh stage -post hwos -n node1,node2

-verboseオプションは、クラスタ検証ユーティリティによるシステム検証の進捗状況および検証結果の詳細を表示する場合に選択します。

CVUを使用したオペレーティング・システム要件の設定の検証

oracleユーザーで次のコマンド構文を使用し、インストール前の作業を行うためのオペレーティング・システム要件をシステムが満たしているかどうかを検証します。

/mountpoint/crs/Disk1/cluvfy/runcluvfy.sh comp sys -n node_list -p {crs|database}
-osdba osdba_group -orainv orainv_group -verbose

前述の構文例の意味は次のとおりです。

-verboseオプションを選択すると、CVUによるシステム検証の進捗状況および検証結果の詳細を表示できます。

たとえば、node1およびnode2で構成され、OSDBAがdba、Oracle Inventoryグループがoinstall、メディア・マウント・ポイントが/dev/dvdrom/の2ノードのクラスタで、Oracle Clusterwareインストールに対してシステム検証を実行するには、次のコマンドを入力します。

/dev/dvdrom/crs/Disk1/cluvfy/runcluvfy.sh comp sys -n node1,node2 -p crs -osdba crs 
-orainv oinstall

必要なソフトウェア・ディレクトリの選択

Oracleソフトウェアに対して、次のディレクトリを選択または作成する必要があります。

次の項では、これらのディレクトリの要件について説明します。

Oracleベース・ディレクトリ

Oracleベース・ディレクトリは、Oracleソフトウェア環境における最上位ディレクトリとして機能します。Optimal Flexible Architecture(OFA)のガイドラインに従って、Oracleベース・ディレクトリに次のようなパスを使用します。

/mount_point/app/oracle_sw_owner

この例の意味は、次のとおりです。

同じOracleベース・ディレクトリを複数の環境に使用したり、環境ごとに別のOracleベース・ディレクトリを作成することができます。複数のオペレーティング・システム・ユーザーが同じシステムにOracleソフトウェアをインストールする場合、各ユーザーは別々のOracleベース・ディレクトリを作成する必要があります。次の例のOracleベース・ディレクトリは、すべて同じシステムに作成できます。

/u01/app/oracle
/u01/app/orauser
/opt/oracle/app/oracle

次の項では、インストールに適切な既存のOracleベース・ディレクトリを選択する方法について説明します。また、必要に応じて、Oracleベース・ディレクトリを作成する方法についても説明します。

Oracleベース・ディレクトリを作成するか、既存のOracleベース・ディレクトリを使用するかにかかわらず、環境変数ORACLE_BASEを設定して、Oracleベース・ディレクトリのフル・パスを指定する必要があります。


注意:

Oracleベース・ディレクトリは、ローカル・ファイル・システムまたはサポートされているNASデバイスのNFSファイル・システムに配置できます。Oracleベース・ディレクトリは、バージョン1のOCFSファイル・システムには作成しないでください。 


Oracle Inventoryディレクトリ

Oracle Inventoryディレクトリ(oraInventory)は、システムにインストールされているすべてのソフトウェアのインベントリを格納します。このディレクトリは、単一システムのすべてのOracleソフトウェア環境に必要で、共有されます。システムに初めてOracleソフトウェアをインストールする場合は、Oracle Universal Installerによって、このディレクトリのパスの指定を求めるプロンプトが表示されます。ローカル・ファイル・システムにソフトウェアをインストールしている場合、次のパスを選択することをお薦めします。

oracle_base/oraInventory

Oracleベース・ディレクトリがクラスタ・ファイル・システムまたはNASデバイス上の共有NFSファイル・システムに存在する場合は、ローカル・ファイル・システムにOracle Central Inventoryディレクトリ(各ノードに非公式にマウントされるため、各ノードには中央インベントリの別のコピーがあります)を指定する必要があります。

Oracle Central Inventoryに共有の位置を指定すると、各ノードは同じ中央インベントリに書き込もうとします。これはサポートされていません。

Oracle Universal Installerによって、指定したディレクトリが作成され、そのディレクトリに適切な所有者、グループおよび権限が設定されます。自分でこのディレクトリを作成する必要はありません。


注意:

Oracleベース・ディレクトリは、すべてのOracleソフトウェア環境の基礎となります。定期的にこのディレクトリをバックアップしてください。

システムからすべてのOracleソフトウェアを完全に削除した場合を除き、Oracleベース・ディレクトリは削除しないでください。 


Oracle Clusterwareホーム・ディレクトリ

Oracle Clusterwareホーム・ディレクトリは、Oracle Clusterwareのソフトウェアをインストールするディレクトリです。Oracle Clusterwareは個別のホーム・ディレクトリにインストールする必要があります。Oracle Universal Installerを起動すると、このディレクトリのパスと識別名の指定を求めるプロンプトが表示されます。Oracle Clusterwareホーム・ディレクトリには、次のようなパスを指定することをお薦めします。

/u01/app/oracle/product/crs


注意:

Oracle Clusterwareホーム・ディレクトリのすべての親ディレクトリの権限を変更して、rootユーザーに対してのみ書込み権限を付与する必要があるため、Oracle Clusterwareホーム・ディレクトリは、Oracleベース・ディレクトリのサブディレクトリにはしないでください。 


Oracleホーム・ディレクトリ

Oracleホーム・ディレクトリは、特定のOracle製品のソフトウェアをインストールするディレクトリです。個々のOracle製品、または同じOracle製品でもリリースが異なる場合は、別々のOracleホーム・ディレクトリにインストールする必要があります。Oracle Universal Installerを起動すると、このディレクトリのパスと識別名の指定を求めるプロンプトが表示されます。ここで指定するディレクトリは、Oracleベース・ディレクトリのサブディレクトリである必要があります。Oracleホーム・ディレクトリには、次のようなパスを指定することをお薦めします。

oracle_base/product/10.2.0/db_1

Oracle Universal Installerによって、Oracleベース・ディレクトリの下に、指定したディレクトリ・パスが作成されます。さらに、そのディレクトリに適切な所有者、グループおよび権限が設定されます。自分でこのディレクトリを作成する必要はありません。


注意:

インストール時に、Oracleホーム・ディレクトリとして、事前定義の権限が適用されている既存のディレクトリを指定してないでください。このようなディレクトリを指定すると、ファイルおよびグループの所有権限エラーが原因で、インストールが失敗します。 


Oracleベース・ディレクトリの選択または作成

インストールを開始する前に、既存のOracleベース・ディレクトリを選択するか、または必要に応じてOracleベース・ディレクトリを作成します。この項の内容は次のとおりです。

既存のOracleベース・ディレクトリの選択

既存のOracleベース・ディレクトリが、OFAのガイドラインに準拠したパスを持たない場合があります。ただし、既存のOracle InventoryディレクトリやOracleホーム・ディレクトリを選択する場合に、通常、次の方法でOracleベース・ディレクトリを選択できます。

インストールに既存のOracleベース・ディレクトリを使用する前に、そのディレクトリが次の条件を満たしていることを確認します。

Oracleベース・ディレクトリがシステムに存在しない場合またはOracleベース・ディレクトリを作成する場合は、次の項を参照してください。

Oracleベース・ディレクトリの作成

Oracleベース・ディレクトリを作成する前に、適切なファイル・システムを選択する必要があります。Oracleベース・ディレクトリには、1.5GB以上の空きディスク領域が必要です。

適切なファイル・システムを選択するには、次の手順を実行します。

  1. df -hコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。

  2. 表示された情報から、適切な空き領域を持つファイル・システムを選択します。


    注意:

    Oracleベース・ディレクトリは、ローカル・ファイル・システムまたはサポートされているNASデバイスのNFSファイル・システムに配置できます。Oracleベース・ディレクトリは、バージョン1のOCFSファイル・システムには作成しないでください。 


    Oracleベース・ディレクトリのパスは、すべてのノードで同一である必要があります。

  3. 選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。

Oracleベース・ディレクトリを作成し、そのディレクトリに適切な所有者、グループおよび権限を指定するには、次の手順を実行します。

  1. 次のコマンドを入力して、選択したマウント・ポイント・ディレクトリに推奨サブディレクトリを作成し、そのサブディレクトリに適切な所有者、グループおよび権限を設定します。

    # mkdir -p /mount_point/app/oracle_sw_owner
    # chown -R oracle:oinstall /mount_point/app/oracle_sw_owner
    # chmod -R 775 /mount_point/app/oracle_sw_owner
    
    

    たとえば、選択したマウント・ポイントが/u01で、Oracleソフトウェア所有者のユーザー名がoracleである場合、Oracleベース・ディレクトリの推奨パスは次のようになります。

    /u01/app/oracle
    
    
  2. 必要に応じて、前の手順で示したコマンドを繰り返し、他のクラスタ・ノードにも同じディレクトリを作成します。

  3. この章の後半でoracleユーザーの環境を構成する際に、この作業で作成したOracleベース・ディレクトリが指定されるように環境変数ORACLE_BASEを設定します。

Oracle Clusterwareホーム・ディレクトリの作成

Oracle Universal Installer(OUI)によって、Oracle Clusterwareホーム・ディレクトリが作成されます。インストールを開始する前に、Oracle Clusterwareディレクトリ用に十分なディスク領域がファイル・システムにあること、およびOracle Clusterwareディレクトリ領域の親ディレクトリがoracleユーザーによって書込み可能であることを確認します。

適切なファイル・システムを選択するには、次の手順を実行します。

  1. df -hコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。

  2. 表示された情報から、1.4GB以上の空きディスク領域を持つファイル・システムを選択します。

    Oracleベース・ディレクトリに同じファイル・システムを使用している場合は、以前に特定した空きディスク領域要件にこの1.4GBのディスク領域を追加する必要があります。


    注意:

    ファイル・システムには、ローカル・ファイル・システムまたはサポートされているNASデバイスのNFSファイル・システムを選択できます。Oracle Clusterwareのホーム・ディレクトリは、バージョン1のOCFSファイル・システムには作成しないでください。 


    Oracle Clusterwareホーム・ディレクトリへのパスは、すべてのノードで同一である必要があります。

  3. 選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。

Oracle Clusterwareホーム・ディレクトリを作成し、そのディレクトリに適切な所有者、グループおよび権限を指定するには、次の手順を実行します。

  1. 次のコマンドを入力して、選択したマウント・ポイント・ディレクトリに推奨サブディレクトリを作成し、そのサブディレクトリに適切な所有者、グループおよび権限を設定します。

    # mkdir -p /mount_point/crs/oracle_sw_owner/product/10/app
    # chown -R root:oinstall /mount_point/crs
    # chmod -R 775 /mount_point/crs/oracle_sw_owner
    
    

    選択したマウント・ポイントが/u01である場合、Oracle Clusterwareホーム・ディレクトリには、次のようなパスを指定することをお薦めします。

    /u01/crs/oracle/product/10/crs
    
    


    注意:

    インストール後、rootユーザーのみがOracle Clusterwareホーム・ディレクトリに書き込むことができるように権限を変更します。 


  2. 必要に応じて、前の手順で示したコマンドを繰り返し、他のクラスタ・ノードにも同じディレクトリを作成します。

  3. 次のコマンドを入力し、Oracle Clusterwareのインストール準備として、環境変数ORACLE_BASEおよびORACLE_HOMEを設定します。

    • Bourne、BashまたはKornシェル:

      $ ORACLE_BASE=/u01/app/oracle
      $ ORACLE_HOME=/u01/crs/oracle/product/10/app
      $ export ORACLE_BASE
      $ export ORACLE_HOME
      
      
    • Cシェル:

      % setenv ORACLE_BASE /u01/app/oracle
      % setenv ORACLE_HOME /u01/crs/oracle/product/10/app
      
      
  4. 次のコマンドを入力して、環境変数TNS_ADMINが設定されていない状態にします。

    • Bourne、BashまたはKornシェル:

      $ unset TNS_ADMIN
      
      
    • Cシェル:

      % unsetenv TNS_ADMIN
      
      
  5. 次のコマンドを入力して、環境が正しく設定されていることを確認します。

    $ umask
    $ env | more
    
    

    umaskコマンドによって22022または0022の値が表示され、この項で設定する環境変数の値が正しいことを確認します。

hangcheck-timerモジュールの構成確認

Linux SystemsにOracle Real Application Clustersをインストールする前に、hangcheck-timerモジュール(hangcheck-timer)が正常にロードおよび構成されていることを確認します。hangcheck-timerは、RACノードの信頼性に影響を与え、データベース破損の原因になるオペレーティング・システムの広範なハングがLinuxカーネルで発生していないかを監視します。ハングが発生すると、このモジュールによって数秒でノードが再起動されます。

hangcheck_tickおよびhangcheck_marginパラメータを使用して、モジュールの動作を次のように制御できます。

カーネルがhangcheck_tickパラメータ値とhangcheck_marginパラメータ値の合計時間内に応答しなかった場合、hangcheck-timerモジュールはシステムを再起動します。


注意:

hangcheck_rebootパラメータは、常に1に設定する必要があります。

hangcheck_rebootの値が1以上の場合は、hangcheck-timerモジュールによってシステムが再起動されます。hangcheck_rebootパラメータが0に設定されている場合は、hangcheck-timerモジュールでノードが再起動されることはありません。 


使用するhangcheckモジュールの検証手順を確認するには、次の手順を実行します。

  1. rootとしてログインし、次のコマンドを入力してカーネルのバージョンを確認します。

    # uname -a
    
    
  2. 出力が2.4カーネル(たとえば、2.4.21-27.EL)であることを示す場合は、「カーネル2.4でのhangcheck-timerモジュールの確認」に進みます。2.6カーネル(たとえば、2.6.9-11.EL)の場合は、「カーネル2.6でのhangcheck-timerモジュールの確認」に進みます。

カーネル2.4でのhangcheck-timerモジュールの確認

Red Hat Linux 3.0およびSUSE 8 Systemsで、hangcheck-timerモジュールがすべてのノードで実行されていることを確認するには、次の手順を実行します。

  1. 各ノードで次のコマンドを入力して、ロードされているカーネル・モジュールを確認します。

    # /sbin/lsmod
    
    
  2. hangcheck-timerモジュールがリストされないノードがあった場合は、次のコマンドを入力し、そのノードでモジュールを起動します。

    # /sbin/insmod hangcheck-timer hangcheck_tick=1 hangcheck_margin=10
    
    
  3. 次のコマンドを入力して、hangcheckモジュールがロードされていることを確認します。

    # lsmod | grep hang
    
    

    このコマンドの出力結果は、次のようになります。

     hangcheck_timer         3289  0
    
    
  4. モジュールがシステムの再起動時に確実にロードされるようにするには、ローカル・システムの起動ファイルに、前述の手順で示したコマンドが含まれていることを確認し、必要に応じて追加します。

    • Red Hat:

      Red Hat Enterprise Linux Systemsでは、/etc/rc.d/rc.localファイルにコマンドを追加します。

    • SUSE:

      SUSE Systemsでは、/etc/init.d/boot.localファイルにコマンドを追加します。

カーネル2.6でのhangcheck-timerモジュールの確認

Red Hat Linux 4.0およびSUSE 9 Systemsで、hangcheck-timerモジュールがすべてのノードで実行されていることを確認するには、次の手順を実行します。

  1. 各ノードで次のコマンドを入力して、ロードされているカーネル・モジュールを確認します。

    # /sbin/lsmod
    
    
  2. hangcheck-timerモジュールがリストされないノードがあった場合は、次のコマンドを入力し、現在のカーネルのバージョンのディレクトリにあるモジュールを起動します。

    # insmod /lib/modules/kernel_version/kernel/drivers/char/hangcheck-timer.ko  
    hangcheck_tick=1 hangcheck_margin=10
    
    

    このコマンドの例の変数kernel_versionは、システムで実行されているカーネルのバージョンを示します。

  3. 次のコマンドを入力して、hangcheckモジュールがロードされていることを確認します。

    # lsmod | grep hang
    
    

    このコマンドの出力結果は、次のようになります。

     hangcheck_timer         3289  0
    
    
  4. モジュールがシステムの再起動時に確実にロードされるようにするには、ローカル・システムの起動ファイルに、前述の手順で示したコマンドが含まれていることを確認し、必要に応じて追加します。

    • Red Hat:

      Red Hat Enterprise Linux Systemsでは、/etc/rc.d/rc.localファイルにコマンドを追加します。

    • SUSE:

      SUSE Systemsでは、/etc/init.d/boot.localファイルにコマンドを追加します。

x86(64-bit)Systemsでのインストール用rootpre.shスクリプトの実行

x86(64-bit)SystemsでOracle Clusterwareを使用する場合は、クラスタ内のすべてのノードでrootpre.shスクリプトをrootユーザーとして実行する必要があります。Linux x86(32-bit)またはLinux Itanium(64-bit)Systemsにインストールする場合、rootpre.shスクリプトを実行する必要はありません。

各クラスタ・ノードで次の手順を使用して、rootpre.shスクリプトを実行します。

  1. rootユーザーでログインします。

  2. 次のコマンドを使用して、rootpreディレクトリに移動します。

    # cd $mount_point/clusterware/rootpre
    
    

    変数mount_pointは、システムでのインストール・メディアのマウント・ポイントです。

  3. 次のコマンドを使用して、rootpre.shスクリプトを実行します。

    # ../rootpre.sh
    
    

アップグレードまたはデータベースの共存のための既存のOracleプロセスの停止

表2-6に、Oracle Database 10g リリース2(10.2)をインストールするシステムに既存のOracleデータベースがある場合に実行する必要がある作業の概要を示します。この表を確認して、必要に応じて作業を実行します。

参照:

アップグレードを実行するための準備の詳細は、『Oracle Databaseアップグレード・ガイド』を参照してください。 

表2-6    アップグレードまたはデータベースの共存のためのシステムの準備の概要 
インストール例  必要な作業 

Oracle Database 10g リリース1(10.1)から10g リリース2(10.2)へのアップグレード 

追加の作業はありません。「Oracle 10g リリース1(10.1)がインストールされているシステムへのOracle 10g リリース2(10.2)のインストール」を参照してください。 

Oracle Database 10g リリース1(10.1)と共存させるためのシステムへのOracle Database 10g リリース2(10.2)のインストール 

追加の作業はありません。「Oracle 10g リリース1(10.1)がインストールされているシステムへのOracle 10g リリース2(10.2)のインストール」を参照してください。 

Oracle9i リリース2(9.2)からOracle Database 10g リリース2(10.2)へのアップグレード 

グローバル・サービス・デーモンを停止し、ポート1521のデフォルトのリスナーが存在する場合はこれも停止します。「Oracle9i リリース2(9.2)がインストールされているシステムへのOracle 10g リリース2(10.2)のインストール」を参照してください。 

Oracle9i リリース2(9.2)と共存させるためのシステムへのOracle Database 10g リリース2(10.2)のインストール 

ポート1521のデフォルトのリスナーが存在する場合は停止し、グローバル・サービス・デーモンを停止します。「Oracle9i リリース2(9.2)がインストールされているシステムへのOracle 10g リリース2(10.2)のインストール」を参照してください。 

Oracle 10g リリース1(10.1)がインストールされているシステムへのOracle 10g リリース2(10.2)のインストール

システムにOracle Database Release 10g リリース1(10. 1)がインストールされている場合に、共存またはリリース1(10.1)をアップグレードするためにOracle Database 10g リリース2(10.2)をインストールすると、ほぼすべてのインストール・タイプで、TCP/IPポート1521およびIPCキー値EXTPROCを使用したデフォルトのOracle Net Listenerの構成および起動が行われます。次のいずれかが発生します。

第3章に進みます。

Oracle9i リリース2(9.2)がインストールされているシステムへのOracle 10g リリース2(10.2)のインストール

この項では、Oracle Database 10g リリース2(10.2)にアップグレードするためにOracle Database 9i リリース2システムを準備する手順について説明します。

作業の説明

Oracle9i リリース2(9.2)の既存のデータベースがインストールされているシステムにOracle Database 10g リリース2(10.2)をインストールし、Oracle Net ListenerプロセスがOracle 10g リリース2(10.2)のインストールで使用されるデフォルトと同じポート(ポート1521)またはキー値を使用している場合、Oracle Universal Installerは新しいリスナーを構成することのみが可能で、それを起動することはできません。新しいリスナー・プロセスがインストール時に起動されるようにするには、Oracle Universal Installerを起動する前に既存のリスナーを停止する必要があります。これを実行するには、「リスナーの停止」を参照してください。

グローバル・サービス・デーモン(GSD)を停止する必要があります。これは、停止しておかないと、10g リリース2(10.2)のインストール時に、Oracle9i リリース2(9.2)のSRVM共有データが、リリース2(9.2)のGSDでは使用できないOracle Cluster Registryにアップグレードされるためです。リリース2(10.2)のOracle Clusterwareのインストールでは、10g リリース2(10.2)のGSDが起動され、Oracle9i リリース2(9.2)のクライアントに対しサービスが提供されます。これを実行するには、「グローバル・サービス・デーモンの停止」を参照してください。

リスナーの停止

Oracle9i の既存のリスナー・プロセスが実行されているかどうかを確認し、必要に応じて停止するには、次の手順を実行します。

  1. ユーザーをoracleに切り替えます。

    # su - oracle
    
    
  2. 次のコマンドを入力して、Oracle9i のリスナー・プロセスが実行されているかどうかを確認し、その名前およびリスナー・プロセスが組み込まれているOracleホーム・ディレクトリを特定します。

    $ ps -ef | grep tnslsnr
    
    

    このコマンドの出力結果に、システムで実行されているOracle Net Listenerの情報が表示されます。

    ... oracle_home1/bin/tnslsnr LISTENER -inherit
    
    

    この例では、oracle_home1が、リスナーが組み込まれているOracleホーム・ディレクトリで、LISTENERがリスナー名です。


    注意:

    Oracle Net Listenerが実行されていない場合は、第3章に進みます。 


  3. 環境変数ORACLE_HOMEを設定して、リスナーに適切なOracleホーム・ディレクトリを指定します。

    • Bourne、BashまたはKornシェル:

      $ ORACLE_HOME=oracle_home1
      $ export ORACLE_HOME
      
      
    • Cまたはtcshシェル:

      % setenv ORACLE_HOME oracle_home1
      
      
  4. 次のコマンドを入力して、リスナーで使用されているTCP/IPポート番号およびIPCキー値を確認します。

    $ $ORACLE_HOME/bin/lsnrctl status listenername
    


    注意:

    リスナーにデフォルト名LISTENERを使用している場合は、このコマンドでリスナー名を指定する必要はありません。 


  5. 次のコマンドを入力して、リスナー・プロセスを停止します。

    $ $ORACLE_HOME/bin/lsnrctl stop listenername
    
    
  6. この手順を繰り返して、このシステムおよび他のすべてのクラスタ・ノードで実行されているすべてのリスナーを停止します。

グローバル・サービス・デーモンの停止

クラスタ内の各ノードで、oracleユーザーとして次の構文を使用し、GSDを停止します。

$ cd 92_Oracle_home
$ bin/gsdctl stop

前述の構文例で、変数92_Oracle_homeはOracle9i リリース2(9.2)のデータベース・ホームです。


戻る 次へ
Oracle
Copyright © 2004, 2008, Oracle Corporation.

All Rights Reserved.
目次
目次
索引
索引