聖書は「神の言葉」と呼ばれています。しかし、少し考えてみてください。今、私たちが手にしている聖書は何千年も前に書かれたものです。それが、長い年月の間にどのように伝わってきたのでしょうか?
まず、原本は残っていません。意外に感じるかもしれませんが、聖書の「原本」、つまり著者が最初に書いた巻物は一つも残っていません。当時使われていた羊皮紙やパピルスは、時間とともに劣化してしまうためです。それでは、どのようにして内容を残したのでしょうか。実は、聖書は「写す」ことで後世に伝えられました。つまり写本文化があったのです。
1.写本の時代:人間の手で書き写す
古代には印刷機やコピー機などありませんでした。そのため、聖書はすべて人間の手によって一字一句書き写されてきました。これは聖書だけに限らず、日本の古典文学などでも同じです。
| 文書名 | 原本成立 | 最古写本 | 岩波文庫定本 | 原本→最古写本 |
| 徒然草 | 1332年 | 1432年(正徹本) | 1532年(鳥丸写本) | 約100年 |
| 歎異抄 | 1262年 | 1415-1499年(蓮如本) | 1520年(端の坊正本) | 約150年以上 |
| 新約聖書 | AD95 | AD125(ジョン・ライランズ写本) | ― | 約30年 |
| 旧約聖書 | BC400 | BC200(死海文書) | ― | 約200年 |
たとえば『徒然草』は1332年に兼好法師が記したとされますが、現存する最古の写本は1432年の正徹本です。その次に有名な1532年の鳥丸写本が、現在岩波文庫の定本になっています。『歎異抄』の場合、原本の成立は1262年ですが、最古の写本となっている蓮如本は1415年から1499年ごろのものです。定本として使われているのは、1520年作成の端の坊正本(岩波文庫版)です。
2.人間はミスを犯す
ここで一つの問題が出てきます。人間はどうしてもミスをしてしまうものです。つまり「書き間違い」が起きるのです。聖書の写本については、ミスのパターンが研究されています。たとえば、
・同じ語尾を目で追っているうちに、間の部分を飛ばして書いてしまう(同末連続落下)
・発音が似ている単語を混同して誤って書く(同音異義語の混同)
・時には意図的に表現を調整する(神学的な理由から)
このようなミスが重なることで、写本ごとに少しずつ違いが生じていきます。
3.なぜ複数の伝承ができたのか?
ここで「もっと厳しく管理していればよかったのでは?」という疑問が浮かぶかもしれません。実は、ユダヤ人は旧約聖書について厳しい管理を行っていました。マソラ学者と呼ばれる人々が、正確さを保つためにさまざまな工夫をこらしていたのです。
- 文字数・単語数のカウント
各書ごとに文字数や単語数、節数を数え、欄外に記録しました。写本が完成した後、数が一致しないものは破棄されました。
- 欄外注記(マソラ・パルヴァとマソラ・マグナ)
誤りや異読を避けるために、本文の周囲に詳しい注記を記しました。例えば「この単語は旧約聖書全体で○回しか出てこない」といった統計情報です。
- 発音補助(母音記号)
ヘブライ語は本来子音だけで書かれていますが、誤読を防ぐために母音記号を付け加えました。
- 神名の扱い
「ヤハウェ」という神の名を誤って発音しないように、代わりの読み方(アドナイ)を指示する注記を加えました。
ただし、こうした工夫は6~10世紀に行われたもので、それ以前の写本には適用されていません。そのため、旧約聖書の写本にさまざまな違いが残っているのです。
一方、新約聖書の場合は、キリスト教がローマ帝国全体に急速に広がったため、まずは「できるだけ多くの人に広める」ことが優先されました。迫害の時代もあったため、中央で厳格に統一管理することはできませんでした。その結果、地域ごとに写本が生まれ、複数の伝承ができることとなりました。
3.印刷の登場と「どれが本物?」問題
時代が進み、15世紀に印刷技術が発明されると、新たな問題が出てきます。つまり「印刷するために、どの写本をもとにすればいいのか?」という問題です。
ここで登場したのが、本文批評という学問分野です。たとえばエラスムス(1516年)は、ギリシャ語新約聖書を編集する際、複数の写本を比較して「最もよい本文」を選びました。これが本文批評の実践的な始まりといえます。
その後、17~18世紀には、ステファヌス(1550年)やベザ(16世紀後半)などが異なる読み方(異読)を欄外に記載し、18世紀にはベンゲルが「異読を評価する基準」を提案するなど、本文の比較と分析が体系化されていきました。
19世紀になると、死海文書やシナイ写本などの古代の写本が発見されます。中でもウェストコット&ホートは、写本の年代や系統(外的証拠)と文脈や文体(内的証拠)の両方を組み合わせて分析する、科学的な方法による本文批評学を発展させました。
さらに20世紀になると、Würthweinは「どんな誤りが起きやすいか」をタイプ別に分類し、写本文化の特徴を詳しく分析。Tovは「なぜ違いが生まれたのか」という視点から、異読の背景や編集の意図を解明し、現代の本文批評学を発展させています。
このようにして、現代の聖書は「保存の努力」と「復元の努力」の両方によって支えられてきました。
4.信頼性に関する結論
実際、写本ごとに読み方の違いがあるのは、全体の千分の一程度しかありません。また、キリスト教の信仰そのものを揺るがすような重大な違いは見つかっていません。膨大な数の写本や、当時の教父(初期のキリスト教指導者)の証言が数多く残されているため、本来の本文をかなり高い精度で復元できているのです。
5.現代の限界とAIの登場
ただし、本文批評にも限界があります。原本は存在せず、参考にできる資料にも偏りがあるため、絶対に正しい本文を確定することはできません。しかし、異なる読みの箇所があるとしても、その多くはごく細かな部分にとどまり、信仰の中心に関わるものではありません。
そして現在、AIが登場しています。AIは数千もの写本を瞬時に比較したり、誤写のパターンを学習したりして、最も原文に近い本文を推定できます。もちろん、最終的な判断は人間が行いますが、AIの登場は本文批評のあり方を大きく変えていく可能性があります。
聖書は信仰の土台です。その本文がどのように伝えられてきたかを理解することは、信仰を深めるためにもとても大切です。本文批評は「聖書を疑う」ためのものではなく、聖書の信頼性についてより理解を深め、「神の言葉をより確かに知る」ことに役立てるために行われています。(©Dr. Makoto)
Episode 38: Is the Bible Text Really the “Original”?
How Were Biblical Manuscripts Preserved and Restored?
The Bible is often called “the Word of God.” But stop and think for a moment: the Bible we hold today was written thousands of years ago. How has it been transmitted through the centuries?
First, the original manuscripts no longer exist. This may surprise you, but not a single “autograph”—the scroll written by the original author—has survived. Materials like parchment and papyrus deteriorate over time. So how was the content preserved? Through copying. The Bible was passed down by handwritten manuscripts—a true manuscript culture.
1. The Age of Manuscripts: Copied by Hand
In ancient times, there were no printing presses or photocopiers. Every word of Scripture was copied by hand. This wasn’t unique to the Bible—Japanese classics were transmitted the same way.
| Work | Original Date | Oldest Manuscript | Iwanami Standard Edition | Gap |
| Tsurezuregusa | 1332 | 1432 (Shōtetsu MS) | 1532 (Torimaru MS) | ~100 yrs |
| Tannishō | 1262 | 1415–1499 (Rennyo MS) | 1520 (Hashinbō MS) | ~150+ yrs |
| New Testament | AD 95 | AD 125 (John Rylands Papyrus) | — | ~30 yrs |
| Old Testament | 400 BC | 200 BC (Dead Sea Scrolls) | — | ~200 yrs |
For example, Tsurezuregusa was written around 1332 by Yoshida Kenkō, but the oldest surviving manuscript is from 1432 (Shōtetsu). The famous Torimaru manuscript (1532) is the basis for the Iwanami edition. Similarly, Tannishō originated in 1262, but the earliest copy (Rennyo MS) dates to the 15th century, and the standard text comes from the Hashinbō manuscript (1520).
2. Humans Make Mistakes
Here’s the problem: humans make errors. Copying by hand inevitably introduces mistakes. Scholars have studied these patterns in biblical manuscripts:
- Homoioteleuton (same ending omission)
When a scribe’s eye jumps from one word ending to another, skipping the text in between. - Confusion of similar-sounding words
Example: Hebrew melek (“king”) vs. malak (“messenger”). - Intentional adjustments
Sometimes changes were made for theological reasons.
Such errors accumulated, creating variations among manuscripts.
3. Why Multiple Traditions Emerged
You might wonder: “Couldn’t they have controlled this better?” For the Old Testament, Jewish scribes did exactly that. The Masoretes introduced rigorous safeguards:
- Counting letters and words
Every book’s letters, words, and verses were counted and recorded. If the numbers didn’t match, the manuscript was discarded. - Margin notes (Masora Parva & Magna)
Notes warned of rare words or unusual spellings, e.g., “This word occurs only X times in the entire Hebrew Bible.” - Vowel markings
Hebrew originally had only consonants; vowels were added to prevent misreading. - Handling the divine name
Instructions to read Adonai instead of pronouncing YHWH.
These measures were introduced between the 6th and 10th centuries. Earlier manuscripts lacked such controls, so variations remain.
For the New Testament, rapid spread across the Roman Empire—and periods of persecution—made centralized control impossible. The priority was distribution, not uniformity, so regional manuscript traditions developed.
4. Printing and the “Which Text?” Question
When printing arrived in the 15th century, a new challenge arose: Which manuscript should be printed?
This led to the birth of textual criticism. Erasmus (1516) compared multiple Greek manuscripts to produce the first printed Greek New Testament. Later, Stephanus (1550) and Beza added variant readings in margins. In the 18th century, Bengel proposed principles for evaluating variants.
By the 19th century, discoveries like the Dead Sea Scrolls and Codex Sinaiticus transformed the field. Westcott and Hort pioneered a scientific approach, weighing external evidence (age, family) and internal evidence (style, context).
In the 20th century:
- Würthwein classified common scribal errors and analyzed manuscript culture.
- Tov asked deeper questions: Why do differences exist? Were they accidental or editorial? He examined the role of translations like the Septuagint (LXX) and their historical value.
Together, these scholars shaped modern textual criticism.
5. How Reliable Is the Bible Text?
- Variants exist, but they amount to about one-thousandth of the text.
- No major doctrinal truths are affected.
- Thousands of manuscripts and extensive quotations by early church fathers allow highly accurate reconstruction.
6. Limits and the Role of AI
Textual criticism can never deliver absolute certainty—originals are gone, and evidence is uneven. Yet most differences are minor and do not affect core beliefs.
Today, AI is entering the scene. AI can compare thousands of manuscripts instantly, detect scribal patterns, and suggest the most probable original reading. Human judgment remains essential, but AI promises to revolutionize the field.
Final Thought
The Bible is the foundation of faith. Understanding how its text was preserved and restored deepens trust, not doubt. Textual criticism exists not to undermine Scripture, but to help us know God’s Word more accurately.(© Dr. Makoto)
0件のコメント