「計量計測データバンク」サイトマップ measure and measurement data bank of saite map

計量計測データバンク ニュースの窓-375-
News material content collection of metrology databank №375

計量計測データバンク ニュースの窓-375-
AI進展でウィキペディア危機


計量計測データバンク ニュースの窓 目次

計量計測データバンク ニュースの窓 目次
計量計測データバンク ニュースの窓 目次 1
計量計測データバンク ニュースの窓 目次 2
計量計測データバンク ニュースの窓 目次 3

計量計測データバンク ニュースの窓 目次

計量計測データバンク ニュースの窓-375-

計量計測データバンク ニュースの窓-375-AI進展でウィキペディア危機

常念岳の台形の姿の謎解き 森夏之
築35年の山荘の増築工事-2026年02月28日(土)行動の記録-森夏之
日本の未来と人の生き方
キャビンの西の部屋を客間にする構想-2026年03月03日(火)の行動記録-森夏之


AI進展でウィキペディア危機

AI進展でウィキペディア危機

元の検索キーワード:AI進展でウッキペデイア危機

2026年03月03日(火)18:50ダウンロード
 
AI による概要
AI(人工知能)の急速な進展は、世界最大のオンライン百科事典「ウィキペディア(Wikipedia)」にとって、誕生以来「史上最大の脅威」とも言われる危機的状況をもたらしています。
具体的には、検索エンジンや対話型AIが回答を直接生成することで、人間によるウィキペディアへのアクセスが減少(2025年に前年比約8%減)しており、ボランティアのモチベーション低下や、AIによる誤情報の流入が懸念されています。
AI進展によるウィキペディアの危機的側面と対策について、以下の通り要約します。
1. 主な危機・課題
トラフィックの減少と存在意義の低下:ユーザーがGoogleのAI概要やChatGPTで即座に回答を得るようになり、情報を求めてウィキペディアにアクセスする必要性が低下している。
「ただ乗り」による財政的脅威:AI企業はウィキペディアのデータを無料で使用して学習しているにもかかわらず、その情報源を十分に還元していない(トラフィックが送られてこない)。
AI生成コンテンツ(誤情報)の氾濫:生成AIによって作成された記事がウィキペディアに投稿されるケースが増加。これらは、情報が薄かったり、もっともらしい嘘(ハルシネーション)が含まれる場合がある。
サーバーへの負荷増大:AIボットによるデータ収集が急増し、サーバーの帯域幅が50%以上増加した事例が報告されており、技術的・金銭的な負担になっている。
ボランティアの疲弊:AIによって作成された「粗悪な記事」の修正・削除にボランティアの労力が割かれ、本来の知識収集活動が阻害されている。
2. ウィキペディア側の対応・方針
AIデータの利用制限とAPI有料化:ウィキメディア財団は、AI企業に対して無断学習(スクレイピング)に抗議し、有料の「ウィキメディア・エンタープライズ」APIの使用を求めている。
AI生成記事の特定と削除:ボランティアたちが「AI特有の文章表現(過度に装飾的、または中身がない)」を特定し、AI生成のゴミ情報を排除する活動を強化している。
AI活用の慎重な検討:2025年、AI生成の要約機能のテストがボランティアの反発により一時停止された事例のように、品質を担保できないAI機能の導入には厳しい目がある。
「信頼性」の強み訴求: 財団は「AIはウィキペディアの情報を吸い上げているに過ぎず、人手で検証されたウィキペディアこそが真の信頼性を持つ」と強調している。
3. 今後の見通し
ウィキペディアが「AIの学習データ」として不可欠な存在である一方で、人間によるアクセス減と、AI生成コンテンツへの汚染という「双方向の脅威」に直面しています。今後、人間とAIの協調(AIのツールとしての利用)をどこまで受け入れ、人間の知識に基づく「信頼性のコミュニティ」を維持できるかが焦点となっています。

AIの進展により、ウィキペディアは「史上最大の脅威」に直面していると指摘されています。主な危機の内容と、それに対する運営側の対応は以下の通りです。
主な危機の要因
閲覧数の急減:検索エンジンが生成AIによる要約を直接表示するようになったことで、ユーザーがウィキペディア本体のサイトを訪れる必要がなくなりました。2025年のデータでは、人間の訪問数が前年同期比で約8%減少しています。
「ただ乗り」と持続可能性の低下:AI企業がウィキペディアの膨大なデータを学習に利用しながら、元のサイトにトラフィックを戻さないことが問題視されています。閲覧減少は寄付金の減少やボランティア編集者の意欲低下を招き、百科事典としての存続を危うくする恐れがあります。
AI生成コンテンツによる汚染:AIによる低品質な翻訳や「ハルシネーション(もっともらしい嘘)」を含む記事の投稿が増え、情報の信頼性が損なわれるリスクが生じています。
ウィキメディア財団の対応
有料APIの導入:AI企業に対し、適切なコスト負担を求めるために有料のデータ提供プログラム(Wikimedia Enterprise)を推進し、財務的な安定を図っています。
「人間中心」の戦略:AIはあくまで編集作業を効率化する補助ツール(技術的障壁の除去など)として活用し、内容の検証や議論、合意形成は引き続き人間が行うという方針を堅持しています。
AI要約機能の停止:記事冒頭にAIによる要約を表示する試行を行いましたが、信頼性低下を懸念する編集者コミュニティからの強い反発を受け、導入を一時停止しました。
ウィキメディア財団は、AIが既存の知識を要約することはできても、新しい知識を発見・検証し、議論を通じて中立性を保つプロセスは代替できないとして、AI時代におけるウィキペディアの価値は「かつてないほど高まっている」と主張しています。



AIによる乗っ取り - Wikipedia
2026年03月03日(火)18:50ダウンロード


1920年の劇R.U.R.のロボット反乱のシーン

AIによる乗っ取り(エーアイによるのっとり)は、コンピュータプログラムまたはロボットが、人類を放逐し、地球を実効支配することで、人工知能(AI)が地球上の主要知能となるという仮想のシナリオである。起こりうるシナリオとしては、人間の仕事の完全なる置き換えや、超知能による乗っ取り、ロボット反乱という人気のある[要出典]発想などが含まれる。AIによる乗っ取りはサイエンス・フィクションで人気な題材である。スティーヴン・ホーキングやイーロン・マスクといった著名人が、将来の超知能機械を確実に人間の制御下に置けるようにするための、予防措置の研究をすることを主張している[要出典]。

経済のオートメーション化
経済学者間での伝統的な合意事項は、技術の進歩は長期間の失業を生み出さないということ[要出典]である。しかし、最近のロボティクスや人工知能分野でのイノベーションのために、人間の仕事が奪われ、様々な分野で生活費を稼ぐための仕事が無くなり、経済危機を引き起こすという懸念が高まっている[1][2][3][4]。多くの中小企業が最新のロボット技術やAI技術に金銭的な面やライセンス的な面で対応できず、廃業に追いやられる可能性がある。また、最新技術に晒されて、存続のために簡単には置き換えられないような領域や分野に注力する必要が出てくる恐れもある[5]。
労働者に技術に置き換わる可能性
AI技術はここ数年で広く採用されてきた。AI技術は、従来の労働者の多くにとって代わったが、新たな雇用機会を生み出してもいる。最もAI代替しやすい産業には、輸送業、小売業、軍事産業が含まれる。例えば、AI軍事技術により、兵士が怪我のリスクを冒さずに遠隔で作戦を遂行することができるようになる。作家のデイブ・ボンドは、AI技術が発展し拡大を続けるにつれて、人間とロボットの関係は変化することになり、技術は生活の幾つかの側面に密接に統合されることになると述べた。AIにより、特に反復作業が多い分野では代替される労働者もいるが、AIは他の部門で新しい機会も創造すると考えられる[6][7]。
コンピュータ統合生産
コンピュータ統合生産は、コンピュータを生産過程を制御するために利用する。これによって、個々の過程はお互いに情報を交換して、行動を始めることができる。コンピュータの統合によって、製造でのミスを減らした上で高速化できる可能性もあるが、最大の利点は自動化された製造過程を生み出すことができることである。コンピュータ統合生産は、自動車、航空、宇宙、造船産業などで使われる[要出典]。
ホワイトカラーマシン
21世紀では、多様なスキル労働が部分的に機械に代替されているのが見られる。それには、翻訳、法調査などが含まれる。介護や娯楽、他の共感力が必要な仕事は、以前は自動化の手を逃れられると思われていたが、ロボットやAIによる代替が始まりつつある[8][9][10][11]。例えば、ChatGPTの登場により、デジタルゲームのNPCのセリフを用意する仕事などは急速に代替が進んでいる。また、Stable Diffusionなど画像生成モデルの急激な進展によって、広告業者などが、イラストレーターではなく、AIにより生成されたイラストを使用する事例が出てきている[要出典]。
脚注
[脚注の使い方]
^ Larson, Nina (2017年6月8日). “AI 'good for the world'... says ultra-lifelike robot”. Phys.org. 2020年3月6日時点のオリジナルよりアーカイブ。2017年8月15日閲覧。 “Among the feared consequences of the rise of the robots is the growing impact they will have on human jobs and economies.”
^ Lee, Kai-Fu (2017年6月24日). “The Real Threat of Artificial Intelligence”. The New York Times. 2020年4月17日時点のオリジナルよりアーカイブ。2017年8月15日閲覧。 “These tools can outperform human beings at a given task. This kind of A.I. is spreading to thousands of domains, and as it does, it will eliminate many jobs.”
^ Santini, Jean-Louis (2016年2月14日). “Intelligent robots threaten millions of jobs”. Phys.org. 2019年1月1日時点のオリジナルよりアーカイブ。2017年8月15日閲覧。 “"We are approaching a time when machines will be able to outperform humans at almost any task," said Moshe Vardi, director of the Institute for Information Technology at Rice University in Texas.”
^ Williams-Grut, Oscar (2016年2月15日). “Robots will steal your job: How AI could increase unemployment and inequality”. Businessinsider.com. Business Insider. 2017年8月16日時点のオリジナルよりアーカイブ。2017年8月15日閲覧。 “Top computer scientists in the US warned that the rise of artificial intelligence (AI) and robots in the workplace could cause mass unemployment and dislocated economies, rather than simply unlocking productivity gains and freeing us all up to watch TV and play sports.”
^ “How can SMEs prepare for the rise of the robots?” (英語). LeanStaff. (2017年10月17日). オリジナルの2017年10月18日時点におけるアーカイブ。 2017年10月17日閲覧。
^ Bond, Dave (2017). Artificial Intelligence. pp. 67–69
^ Frank, Morgan (2019-03-25). “Toward understanding the impact of artificial intelligence on labor”. Proceedings of the National Academy of Sciences of the United States of America 116 (14): 6531–6539. doi:10.1073/pnas.1900949116. PMC 6452673. PMID 30910965.
^ Skidelsky, Robert (2013年2月19日). “Rise of the robots: what will the future of work look like?”. The Guardian (London). オリジナルの2019年4月3日時点におけるアーカイブ。 2015年7月14日閲覧。
^ Bria (2016年2月). “The robot economy may already have arrived”. openDemocracy. 2016年5月17日時点のオリジナルよりアーカイブ。2016年5月20日閲覧。
^ Srnicek (2016年3月). “4 Reasons Why Technological Unemployment Might Really Be Different This Time”. novara wire. 2016年6月25日時点のオリジナルよりアーカイブ。2016年5月20日閲覧。
^ Brynjolfsson, Erik; McAfee, Andrew (2014). “passim, see esp Chpt. 9”. The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company. ISBN 978-0393239355

ウィキペディアの中立的観点を強化する – Diff
ウィキペディアの中立的観点を強化する
4 April 2025 by Wikimedia Foundation
ウィキメディア財団は最近、2022年以来毎年行っている年次計画作成作業である、ムーブメントとしての私たちの優先事項にとって重要な世界的傾向を特定するための広範な調査に注目しました。私たちは急速な変化をより深く調査し、「世界は今、ウィキメディアに何を求めているか?」を問います。
これらの傾向は、ウィキ上や多くのコミュニティー空間での有意義な会話を促し、活動や投資の優先順位付けに役立っています。
今年、ウィキメディア・ムーブメント内外で大きな話題となった傾向の一つは、中立性に関連しています。それはオンライン上の情報の信頼性が低下し、どの情報が真実かについてのコンセンサスがいかに分断しているか、ということです。世界がより複雑になり、以前より人々が分断されている、と考える人たちもいます。中立性の危機が広がっているように見える現在、ウィキペディアの中立的な観点(NPOV)ポリシーが以前より多く求められています。この中心ポリシーはウィキペディアにとても役立っており、四半世紀にわたるボランティアの貢献によってより強くなっています。
この中立性の原則をどのようにNPOVポリシーに反映していくかは、ウィキメディアのプロジェクトによって異なり、コミュニティで相互に学びあう機会になっています。そして脅威が増し規制が増加している環境の中で、中立性の共通世界標準がプロジェクト(とボランティア)をより適切に保護できるかを検討する機会でもあります。
ウィキメディアコミュニティを支援し、中立性への私たちの関与を再確認するために、ウィキメディア財団は現役編集者、理事、研究者、顧問からなるワーキンググループを招集し、ウィキペディアを保護し、プロジェクトの完全性を高め、これらの方針の管理を任されたボランティアを更に支援できるよう、NPOV政策の一般原則に関する推奨事項を検討しています。
これらの会話は、NPOVの根底にある基本原則にもとづいておこなわれ、アイデア、概念、観点の探求を損なうことなく、事実を公正で中立的に記述するのを目的としています。世界で今起こっていることを見ながらウィキペディアの中立性を再確認することで、この高く信頼できるリソースは、信頼できる情報を提供する使命をより強固にできます。
ウィキペディアのNPOV政策や貢献方法についての詳細は、以下をお読みください。
ウィキペディアの中立的観点(NPOV)の略史
プロジェクトが始まった時から、中立的な観点の維持は、ウィキペディアの中心原則でした。2003年に始まったメタ・ウィキのページでは、ウィキペディアとウィキメディア・プロジェクトは、「どんな主題についても、それを支持したり否定したりする観点を示すのではなく、それについてさまざまな観点が存在する場合でも、事実の公正で中立的な記述の提供に努めています。このポリシーは全ての言語のプロジェクトに適用されていますが、プロジェクトごとに、また言語の異なるプロジェクトによってはポリシーの詳細が異なることもあります」と書かれています。
ウィキペディアンたちは、この譲れない原則を実施するには協働が必要なことを理解しています。「NPOVは記事を書く際に究極の目標ですが、一人の書き手としてすぐに達成するのは難しいです。それなので(ウィキを書くときはいつもそうであるように)繰り返しのプロセスとみなされ、異なる観点が言語と表現を歩み寄り、合意に基づく意思決定により、全ての人が受け入れる中立的記述に達します」。
全ての方針と同様、NPOVはウィキペディアの24年の歴史の中で、100以上の言語による何千もの入力により改良されてきました。このコミュニティの議論の進化過程を経ることで、中立的な観点の原則と適用はウィキペディアのモデルの基盤であり続けます。
NPOVポリシーの世界共通基準
先日のコミュニティ・ワークショップで、多言語版ウィキペディアにおけるNPOVポリシーについて検討したところ、様々な違いや矛盾が明らかになり、異なるウィキメディア・プロジェクトがお互いに学びあうための機会も提供されました。コミュニティによりNPOVポリシーを信任された拡張権限のある編集者は、このポリシーがいくつかの言語で不明瞭で未整備な場面に接した課題について述べました。
ニュースソースに対する一般の信頼が低下するにつれ、ウィキペディアンは公正でバランスよく偏見のない、信頼できるソースからの視点を提供する課題に直面しています。編集者が急速に動き議論を呼ぶトピックスに取り組むときに、これは試されます。近年では、イスラエル―パレスチナやロシア―ウクライナの地政学的紛争から、ウィキメディア・プロジェクトにおける女性のアンバランスな表現、グローバル・サウスからのグローバル・サウスに関する記事の増大、パンデミックについての医療情報の出現、ウィキペディアがどのようにイスラエル―パレスチナ問題に取り組んでいるかなど、特に注目すべき問題にも及びます。これらの課題のいくつかは、適切に処理するには時間と調査が必要な事もわかりました。
ボランティアの皆さんはよくご存じの通り、ウィキペディアの誠実さは、特に発展的で論争を呼ぶ記事において、公正でバランスの取れたアプローチを優先する堅固な統治プロセス(たとえば議論プロトコル、監視メカニズム、紛争解決チャンネル)により保護されています。この充分に文書化された標準は、特別に設計されたもので、不当な影響を防ぎ、この規模ではどこにも類を見ない、独立した非営利モデルを保持しています。ボランティアの方たちが論争を呼ぶ主題について、中立的に管理しているのをしばしば見ることができます。
ウィキメディア・プロジェクトを支える人々は謙虚で明晰な視点を持っています。世界中のデジタルなメディア・プラットフォームが偏見や偽情報と闘っている中で、彼らは常にシステムを適用させ、改善させていく必要があります。地元のコミュニティによって実施される、より強力なコミュニティ主導のコンテンツ管理ポリシーは、ウィキペディアとウィキぺディアンを守ります。
この重要で自立したメカニズムを支えるために、ワーキンググループは、NPOVポリシーを過去20年間に発展させてきた注意深い考察を土台に、プロジェクト間のNPOVポリシーの一般標準がいかにウィキペディアとボランティアたちを守るか、を検討します。ワーキンググループの意図は、ウィキペディアを世界でも信頼性の高いリソースとしてきたコミュニティ主導のポリシーを、共有化していくことです。そのために既に取り掛かっているポリシーのフィードバックを取り入れ、グローバルなウィキメディア・コミュニティで共有される価値に反映させます。
最初の勧告一式が、2025年6月のウィキメディア財団評議員会に、財団の計画と予算の承認と並行して提出される予定です。
ウィキメディア・ムーブメント内外のこれらのトピックスに関心を持つ全ての方からの、メタ・ウィキページまたは財団の年次計画対話への投稿を歓迎いたします。
AIチャットボット、検索エンジン、音声アシスタント、そしてインターネット上のコンテンツ再利用者まで、ウィキペディアへの世界の依存は増加し続けています。ウィキペディアがこれまでよりさらに使われ(そして必要とされ!)ている時、私たちは中心原則を強化し共有価値を維持しなければなりません。ウィキペディアの中立的観点の強化は、世界中の何十億もの人々が使うコンテンツの信頼性を高めるのです。


AI時代、ウィキペディアはかつてないほど価値がある – ウィキメディア財団
2026年03月03日(火)18:38ダウンロード
生成AIが文章や動画を作成する能力を得て以来、オンラインの世界は根本から変わりました。
しかし多くの人はAI生成の情報にはいわば縁の下がいるとも気づかず、それが実はすごくおなじみのもの、生身の人間 が査読し、議論して文書にまとめた知識だとも知らないままです。
だからこそ、ウィキペディアはインターネット上のあらゆる知識を支える屋台骨として、その役割はかつてないほど重要になっています。
順に説明しましょう。
人間が作り出した知識は代替が不可能
ハンク・グリーン氏(Hank Green)は科学コミュニケーターとして、最近、AIの未来に 疑念を示し、AIはむしろ自滅して終わるのではないかと危ぶんでいます。人間が編み出した知識をずっと続けて取り込まない限り—生成AIは存在できないし、AIシステムはモデル崩壊に陥ってしまうという指摘です。
ウィキペディアの強みは、ボランティア編集者の皆さんが集まる数十万、数百万人規模のコミュニティであり、その人たちがサイトの情報を絶えず改善している点にあります。ウィキペディアのコンテンツの執筆や管理はボランティア編集者の皆さんが行うのであって、その部分はウィキメディア財団 — ウィキペディアを支援し技術面と法的支援を提供する非営利団体 — は担当外です。
人間が知識創造にもたらす要素を、AIは肩代わりできません。現在の生成AIツールにできることは既存の知識を統合または要約する点であって、関与が不可能なのは、ウィキペディアのボランティア編集者が日常として進める議論や討論、合意形成の部分です。特定のアーカイブから埋もれていた情報を発見したり、知識の向上をめざしてどこかの出来事や典拠不足の場所があるなら写真を撮ってくるなどもできません。
さらに、ウィキメディアのプロジェクト類が300超の言語で利用できるのも、母語話者がその多くを記しているからであり、包摂的で文化を理解したAIモデルの開発ができるのは、多言語コーパスが提供されるからです。このように人間ありきで知識の創造に取り組み、品質が高く信頼できる情報を提供しよう、編集において意見の相違を認め合い定期的に協力していくと、より中立的で包摂的な記事作成につながります。ウィキペディアに参加する人たちが増えれば増えるほど、インターネットの知識も向上していきます。
ウィキペディアの透明性も優れています。 ウィキペディアでは誰もが全く同じ情報を閲覧しているし、その人の行動追跡、コンテンツ提供という形の利益追求のためのアルゴリズムはありません。特定の情報を読んでいるとき、そこに付けてある出典は誰が最初に信頼できる情報源として報告したかも確認できます。特定の情報をその記事に掲載した、そもそもの理由と経緯を詳しく知りたければ、どのボランティアがウィキペディアでどんな操作をしてどんなプロセスがあったか誰でも確認でき、それは当ウェブサイト上のログに記録し公開してあるからです。また、ウィキペディアではこの生きた知識の情報源を常に更新しており、当ウェブサイトの方針とガイドラインに従う限り、どなたでも情報の追加をしてください。この公開性こそ、ウィキペディアが世界で最も信頼されるプラットフォームの一つにずっと数えられてきた理由です。ふりかえって見ると、生成AIシステムには質問に対して「ハルシネーション」現象(※)を示しています(”※”=虚偽または誤解を招く情報を事実かのように示す応答)。
ウィキペディアではAIを利用するのか?
信頼できる情報をより多くの人々に提供する、その使命を達成しようとする私たちは、AIには可能性があると認めています。ただし、あくまでもウィキペディアの流儀にしたがい — あくまでも人間による知識の創造と共有の支援 という方法であって、、人間に取って代わる ものであってはなりません。
一例として、ウィキペディアで費やされるボランティア時間の大部分は、荒らし行為の報告など日常作業が占めると判明しています。こうした作業に注意を取られると、より複雑な作業としてコンテンツ作成や編集内容の査読などがお留守になってしまいます。だからこそ、今年初めに編集者向けAI戦略を発表して、その大部分は編集者の皆さんの時間配分に重みを置き、百科事典のため本来の重要な作業に割り当てるようと述べました。
いずれにしてもAIツールは確実に、人間の貢献者を最大限にサポートする存在として使うよう、ボランティアの皆さんが自らウィキペディア全域でAIツールの責任ある使用に関して、ガイドライン作成とその施行を引き受けておられます。
ウィキペディアにおんぶに抱っこのAI
AIの存在は人間の努力なしに、ウィキペディアのように非営利を目指さない公開の情報源構築ぬきにはありえません。それが根拠だからこそ、ウィキペディアがAI機械学習用として世界最高品質を誇るデータセットの一つとして扱われるし、AI開発者がもしもそれを省こうとしても、精度も多様性も検証可能性も著しく低下した回答の生成にとどまってしまうでしょう。
私たちはこれらに立脚し、AI開発者ほかコンテンツ再利用者に対して、コンテンツにアクセスするならその利用に責任を負ってウィキペディアを維持してもらうように呼びかけています。その実践は帰属と財政支援という、シンプルな行動2つを必ず伴います。
帰属(Attribution)とは、生成AIが出力結果にどんな人間の貢献を利用したか、信用(クレジット)をつけることです。こうすると知識を作成する人間が貢献を継続しますし、それらデータに依存しながら新しいテクノロジー育成を重ねるという、好ましい循環が保てます。インターネット上で共有される情報を世間の人々が信じるかどうかですが、各プラットフォームは情報源を明確に示し、さらに利用者がそれら情報の出所にアクセスして参加する機会を高めたなら、信頼度はますます深まるはずです。ウィキペディアへのアクセスが減るなら、ボランティアばかりか、ウィキペディアの成長も豊かさも衰えてしまうかもしれないし、支援してくださる個人の寄付者すら少なくなるかもしれません。
さて財政支援とは、経由点としてウィキペディアのコンテンツとそれにアクセスする大部分のAI開発者側との間に、必ずウィキメディア・エンタプライズのプラットフォームを挟むという意味です。これはウィキメディア財団開発のオプトイン制の有償製品であり、企業はウィキペディアのコンテンツを大規模かつ持続して利用しながらウィキペディアのサーバーに過重な負担をかけるもなく、並行して非営利組織である私たちの使命に貢献もしていただくわけです。
AI開発者各位には情報源への適切な帰属表示に加え、AIがウィキペディアに寄せる技術的影響について財政支援を高め、ご自身の長期的な将来とともにウィキペディアの将来性を確実にしてていただけないでしょうか。
結論
ウィキペディアはいわば「インターネットにある最良で最後の場所」といえます。同規模のサイトで、検証可能性と中立性と透明性の基準を備えつつインターネット全体の情報を支えるものは他に例がありません。さらに、日常の人々の情報ニーズにとっても、これまでずっと目には見えないけれどさまざまな面で不可欠な存在でした。ウィキペディアは人間の知識であり、AIがますます溢れかえる世の中では、世界にとってその価値は従来より重みがあります。
ウィキペディアは2026年1月15日に25周年を迎えます。この節目に私たちはこれまでを振り返り来たるべき25年をながめて、ウィキペディアはきっと存続するし、未来の世代にも無償で正確な人間による公開の知識をきっとインターネットで提供していくと楽観しております。

AIは情報だけ吸い上げる…ウィキペディアの人間アクセスが激減していた | ギズモード・ジャパン
AIが思わぬ形で情報源にダメージを与えていた
非営利団体ウィキメディア財団が、インターネットでの情報検索のあり方が変化したことで、ウィキペディアの人間による閲覧数が減少しているとブログで発表しました。
同財団のプロダクト担当シニアディレクターMarshall Miller氏によると、2024年の同時期と比較して、過去数カ月間の訪問数が約8%減少したそうです。
「人間」か「ボット」かの見直しで判明
この減少傾向は、財団が人間のアクセスとボットによるアクセスを区別する方法を見直したことで明らかになりました。この調査は、実際の読者数をより正確に把握し、商業的な検索エンジンやAIツールがデータをスクレイピング(自動収集)する際の制限を適切に設けるために行なわれました。
この見直しをしたきっかけは、ブラジルから「人間によるアクセス」が急増したことでした。しかし、調査の結果、そのアクセス大半は自動プログラム(ボット)によるものだったことが判明したのです。
AI検索とSNSが情報収集の形を変えている
Miller氏はブログで以下のように説明しています。
「閲覧数の減少は、生成AIやSNSが情報収集の方法に与えている影響を反映していると考えています。
特に検索エンジンがウィキペディアの内容をベースにした回答を、検索結果ページ上で直接提示するようになっているのです」
つまり、検索エンジンがAIを活用して、ウィキペディアなどの外部サイトへのリンクを出さずに答えを表示するため、人間が実際にウィキペディアを訪問する機会が減っているということ。
また、若い世代のユーザーは、情報収集の手段としてYouTubeやTikTokといったプラットフォームを利用する傾向が強まっています。
訪問減少がもたらす悪循環
この変化は、ウィキペディアにとって深刻な影響を及ぼす可能性が大いにありそうです。Miller氏は、サイトへの訪問者が減ることでボランティア編集者の数が減少するおそれがあると懸念しています。
さらに、アクセス数の減少は寄付金の減少にもつながります。ウィキペディアは広告収入に頼らず、個人からの寄付で運営されているからです。
ほとんどの大規模言語モデルは、トレーニングデータとしてウィキペディアの情報を使っています。にも関わらず、AIがウィキペディアの訪問者を奪うことで、自らの情報源を弱体化させているという皮肉な自体になっているのです。
そのためウィキメディア財団は、ウィキペディアのコンテンツを利用するAIチャットボット、検索エンジン、SNSプラットフォームに対し、サイトへの訪問を促進する形での貢献を求めています。
若者との新たな接点とAIとの共存
この問題に対処するため、ウィキメディア財団は第三者がウィキペディアのコンテンツを責任を持って大規模に再利用できる環境を整備し、クレジット表記のルールをより明確にする取り組みを進めています。
さらに、YouTube、TikTok、Roblox、Instagramなどのプラットフォーム上で、動画、ゲーム、チャットボットを通じて若い世代にリーチする新しい試みも行なっています。 とはいうものの、ウィキメディア財団はAIそのものに反対しているわけではありません。
今月、ウィキメディア財団はウィキデータにある約1億2000万件のオープンデータを大規模言語モデルが利用しやすい形式に変換したリソース「ウィキデータ・エンベディング・プロジェクト(Wikidata Embedding Project)」を立ち上げています。
このプロジェクトの目的は、AIシステムに高品質なオープンデータを無料で提供し、回答の正確性を高めることだそうです。

2025年10月19日 10時00分 AIが揺さぶるウィキペディアの理念 誤情報、ただ乗り…憤る編集者 [AIの時代]:朝日新聞
2025年10月19日 10時00分
 誰でも編集できるインターネット上の無料の百科事典サイト「ウィキペディア(WP)」。サイトの運営をボランティアで行う通称「ウィキペディアン」たちの間で昨秋、ある記事に注目が集まった。「AI(人工知能)で生成した文章ではないか」
 イタリア・シチリア島の地域名である「コンカドーロ」に関する日本語版記事で、存在しない書籍が出典として書かれていた。AIが架空の事実や情報をもっともらしく出力してしまう現象は「ハルシネーション(幻覚)」と呼ばれる。
 ウィキペディアンが記事を書く際は、元の情報をたどれるよう、出典を正確に記すのが習わしだ。それが「自由な知識をすべての人に」という理念の実現に必須と信じるからだ。ところが、AIに執筆を任せて記事を投稿すると、出典がなかったり、間違っていたり、架空だったりすることが珍しくない。

「ウィキペディア」が誕生25周年--AIの台頭という「史上最大の脅威」にどう立ち向かうか - ZDNET Japan
2026-01-16 10:00
 「Madonnaの出身地はどこか」「1999年のSuper Bowlで優勝したのはどのチームか」「現在のチェスの世界王者は誰か」といった疑問を抱いたとき、現代の人々が頼りにするのは「Wikipedia」である。正確な答えはそれぞれ、ミシガン州ベイシティ、Denver Broncos、Gukesh Dommaraju氏だ。より厳密にいえば、Googleで検索した際に検索結果ページの最上部に表示される「AI Overview(AIによる概要)」が回答の主体となっているが、その情報の裏付けとなる調査を担っているのは、ほかならぬWikipediaの執筆者たちである。
 しかし、25年前の状況は全く異なっていた。2001年1月15日以前にGoogleで同様の検索をすれば、得られる回答はMadonnaのファンサイトやESPN、あるいはInternet Chess Clubといった個別の情報源に由来するものだった。同日、ある小規模な非営利団体が、誰もが編集できる百科事典という、一見すると空想的とも思える構想を立ち上げた。現在、Wikipediaは世界トップ10に入るウェブサイトへと成長し、裁判所の判決や学術論文、報道記事でも引用される存在となっている。これほどの影響力を持ちながら、広告を一切掲載せず、ボランティアによる執筆と寄付のみで運営され続けている。









飛騨高山 昭和60年撮影
観光映画『飛騨の高山』昭和43年頃制作 Hida-Takayama PR movie around 1968
北アルプス 廃道寸前の伊東新道を湯俣温泉に下った1979年夏 執筆 甲斐鐵太郎
純喫茶エルマーナ: 社労士笠島正弘のあれこれ話そう
古い田植え機を使う八ヶ岳山間地の水田 甲斐鐵太郎
蓼科の山荘の10坪の喫茶室のこと 甲斐鐵太郎
coffeeとエルマーナ 見ていた青春 若いころのこと-1- 夏森龍之介
「coffeeとエルマーナ」 見ていた青春 若いころのこと-1- 夏森龍之介

計量計測データバンク ニュースの窓-301-




夏森龍之介のエッセー

田渕義雄エッセーの紹介

TOPへ


日本の国家公務員の機構を旧日本軍の将校機構(士官学校、兵学校、陸軍大学、海軍大学)と対比する

計量計測データバンク ニュースの窓 目次


2026-02-10-news-375-materia-content-collection-of-metrology-databank-375-



「計量計測データバンク」サイトマップ
measure and measurement data bank of saite map