英文の著作権はBBCに帰属します。日本語訳について、
正誤の如何に関わらず無断転用・転載を固くお断り致します。
===============================================
日本語訳修正部分・・・赤
===============================================
----------------------0分00秒----------------------
This week, the war on fake news,
when robots paint the Moon,
flipping out over this
and how to make a shooting star.
今週は、フェイクニュースの戦いに、
ロボットが月を描くところに?、
この注目トピック、そして
流れ星の作り方を。
The world's largest election is underway in India.
Over five weeks,
900 million eligible voters in 20 states
are casting their ballots to decide
who will rule this vast country
for the next five years.
世界最大規模の選挙がインドで行われている。
5週間かけて20の州の9億人の有権者が
先5年の広大な国全域の統治者を国民投票で選出する。
This is no small decision
because in that time,
India's population is set to overtake China's
and its economy is likely to become bigger than the UK's.
「この件はちょっとした決め事ではありません。
インドは間もなく人口で中国を圧倒し、
その経済規模はイギリスを凌ぐ勢いが有るからです。」
The size of this democratic exercise
is like no other,
but the issues that it brings up
are all too familiar.
Social media, once again, is playing a part
in swaying political opinions
and, once again, misinformation
so-called fake news
is attempting to cloud voters' judgement.
他では見られない規模の選挙運動の動きだが、
そこに浮上する問題は近しいものだ。
SNSは再び政治思想の一翼を担い、そして再び
フェイクニュースと呼ばれる偽情報が
有権者の見識を曇らせている/惑わそうとしている。
And the problem is, last year, BBC-led research
revealed that ordinary citizens in India
are less concerned with the facts of a story
and they're more likely to share it
if it bolsters their national identity.
「問題点は昨年BBCのリサーチが明かした
インドの一般市民の正しい情報に対する関心度の低さと、
国民意識の強い内容ほど
情報が(真偽問わず)共有されやすいことです。」
The problem is now as acute on WhatsApp
as it is on Facebook
and when messages come from family and friends,
the receivers are more likely to believe it
and to share it.
その問題が表立つ先がWhatsupやFacebookだ。
家族や友人からメッセージが届くと、
内容が信じられやすく、共有されやすくなる。
India's Election Commission has been working
with social media giants
to try and stop the toxic overspill.
David Reid has been finding out
if they have been successful.
「インドの選挙委員会はSNS大手の企業と共に
その蔓延する毒性の対処・抑制に取り組んでいます。
David Reidがその対応戦略についてお伝えします。」
----------------------2分14秒----------------------
Fake news foxes the best of us.
In India, it has a particular potency.
私たちに蔓延るフェイクニュースの詐欺は
とりわけインドでは説得力がある。
I got information from social media
like WhatsApp, Facebook, news channels.
「情報の入手元はSNSの
WhatsupやFacebookやニュースチャンネルから寄せています。」
Facebook, WhatsApp, Instagram.
「FacebookやWhatsup、Instagramですね。」
Last year, more than 30 people died
after false social media rumours
triggered mob violence.
This NGO stepped in to counter its effects.
The explosion of mobile internet here
has been a cultural earthquake.
People easily believe fiery fake news
and underestimate the effect of sharing it.
昨年SNSの噂が暴力沙汰に発展した4件のケースで計30人以上が死亡。
このNGOはフェイク対策に乗り出している。
この地で爆発的に広がるモバイルインターネット活用の流れは
文化的な激震となり、人々は炎上しやすいフェイクニュースを
容易に信じやすく、その共有の影響力を過小評価しやすい。
India is certainly a country
which comes under these four things
like follow, share, forward, like.
Misinformation is catchy,
misinformation is alarming,
misinformation is like negative news
which is very attractive.
We don't feel bad about forwarding it
without realising how a forward can impact people.
「今のところインドでは
フォロー・シェア・フォロワーといったものが流行りで、
偽情報は偽のアラームとなり、
偽情報は人々を惹きつけるネガティブなニュアンスそのもので、
人々はその共有が悪影響を齎す・及ぼすとは思いもしません。」
Follow, share, forward, like,
at election time, fiery rhetoric
linked to identity does all of these things
and there are politicians here
who are happy to ferment communal tensions.
It's why the election commission
has been so worried about fake news
hijacking the democratic process
and is asking social media ginats to clamp down.
「フォロー、シェア、 フォワード、ライク、
この選挙の時期は
国民意識に結びつく誇張が全体に渡って強くなります。
地元の政治家たちは影響力を歓迎する一方、
選挙委員会は民主的プロセスに則った選挙の乗っ取りを警戒し、
SNS大手に取り締まりを求めています。」
WhatsApp introduced rationing,
limiting to five, the number of contacts
users can share content with.
As for Facebook,
it's smarting from a series of fake news
and data scandals.
India's election is the big test,
it pulled hundreds of fake accounts
and announced a war room
to crisis-manage the election.
We asked to see it
and were eventually told it wasn't in India
where the election is,
but in San Francisco, where Facebook is.
Our reporter who visited it
said the war room had a cobbled-together feel to it.
Whatsupは急遽、コンテンツの共有回数を5回に制限した。
Facebookでは巧みなフェイクニューススキャンダルが続き、
インドの選挙はその対応力(改善能力)が問われる。
何百ものフェイクアカウントが犇めき、
選挙不正対策のタスクフォース設置がアナウンスされた。
私たちもその場の取材を申し入れ、
Facebookサンフランシスコ支社への取材が許可され、
現地リポーターによれば
対策室は忙しない印象を受けたという。
The fact that we set up these operation centres,
that we had the right capabilities in this room,
where we had threat investigators,
data scientists, engineers,
meant that we had the appropriate expertise
so we could respond rapidly when it mattered the most.
「この対策室の目的は
追跡捜査員・データサイエンティスト・エンジニア等、
最悪の事態に瞬時に適切な専門的対応を計るためです。」
Back in India, Facebook has recruited an army
of independent fact checkers.
The start-up, NewsMobile,
employs a new breed of jorno.
They're certified by
the international Fact-Checking Network.
Their job? To review flagged stories,
rate their accuracy
and push out a corrective.
インドに戻り、Facebookは
独立のファクトチェック要員を雇い入れている。
このStartup企業:Newsmobileは
新たなジャーナルの形を構築、
そこには事実確認のネットワークが構成され、
彼らの役割は話題のトピックを検査し、
正確性をレーティングし、誤りを正すことだ。
This is a global epidemic and requires a global response.
For every social media comapany globally...
..the fake news problem
creates a crisis of credibility as well.
So, for them, it's incumbent upon them as well
to work more deeply,
especially with independent media companies.
「この問題は世界中に蔓延しています。
世界展開のSNSで集団の反応に狙いを定めたものです。
フェイクニュースは運営会社の信頼性に
混乱を引き起こすものとして、
当局者・当事者がより積極的に問題対処を図るには
独立のメディア機関に基づく支援体制が必要です。」
By all accounts, the fact checkers are doing
a terrific job,
the problem is, there's just so much fake news
for them to deal with.
Added to that, fact-checking is real journalism,
it takes time,
for all the time that it takes,
the false story is online
doing its damage.
「事実確認というのは非常に膨大な作業です。
その真のジャーナリズムには相応の時間がかかり、
その最中も被害をもたらします。」
By the time a fact checker
pushes out an article, fact checks something,
it's already 24 to 48 hours
since the misinformation has been posted on the platform
and the misinformation, by that time,
has more or less reached the intended audience.
And Facebook has no way of informing the people
who have viewed the misinformation
that there's a fact check correspnding to that.
「フェイクニュースがアップロードされてから
事実確認には最低24時間から48時間は掛かります。
偽情報は大衆を意図したものであり、Facebook側は
巻き込まれる人々に偽情報の事実を知らせる方法がありません。」
Once a story is found to be fake,
it doesn't then disappear,
sure, it's contextualised by the fact-chekers' work
and it's made less prominent.
Its viral wings are clipped,
but it remains up there.
There is, however, a category of misinformation
that Facebook does take down.
「一旦フェイクがみつかったとしても直ぐに消えることはありません。
ファクトチェックで注目トピックから
中身が修正されてもデータは残っています。
偽情報のカテゴリについて
Facebookは対処に乗り出しています。」
In particular cases where we see that misinformation
violates our community standards
and, essentially, coordinates harm.
A good example of this to anchor the conversation,
is misinforamtion that misleads people
about the process of how to vote
or the logistics of when to vote.
That aspect of misinformation is particularly dangerous
and as a result, we do remove it from our platform.
「特定の標準のコミュニティに悪影響をもたらす部分は、
人々を扇動する形で
たとえば投票先や論理的な見解に基づく投票先を示唆する場合、
非常に危険なため、
プラットフォームから排除する方向で動いています。」
For all the drawbacks to fact-checking,
it does seem to be educating people
to be more sceptical.
Eighty-four million new votes have come of age
since the last election,
so is the social media generation
wising up to the wiles of the fake newsers?
ファクトチェックの問題は
教育関係者を懐疑的にさせているように見える。
昨年の選挙から増加する有権者数は8400万人、
そのSNS世代は
フェイクニュース発信者のウソによく気づくものだ。
I think first we need to ckeck it all
and then we have to decide that it's fake or true.
「確認が第1です。
そこから真実か嘘か判別します。」
My ideea is if you're not informative about something,
it's better not to spread rumours around that.
「もし何か有益な情報を持っていないなら、
拡散すべきではないでしょうね。」
Fake news is imagined to have most impact
in knife-edge constituencies
where the vote is close.
After the elections will be the reckoning,
then we'll see how well
social media outfits have done
at curbing activists
and their desire to trick unwitting voters.
「投票が迫る僅差の選挙地域では
フェイクニュースは十分な影響力があります。
選挙終了後、ソーシャルメディアの取組みが
無意識の人々を狙う活動家をどの程度
押させることが出来ているのか判明するのでしょう。」
----------------------7分48秒----------------------
That was David Reid in India.
With me is Will Moy from Full Facts,
an independent, fact-checking charity
here in the UK.
Will, you started working with Facebook
to fact-check their articles recently, haven't you?
-
-
「インドからDavid Leadがお伝えしました。
私と隣に居るのはイギリスのファクトチェッキングチャリティーの
Fullfactから来たWill Moyさんです。
Facebookと共に偽情報のあぶり出しに動き出すそうですね。」
-
-
-
-
-
-
-
-
-
-
That's right. They came to us last year,
we spent a few months talking about how that would work,
how we would maintain our independence.
-
-
「そうです。彼らがやってきてから
具体的な情報機関としての独立性をどのように確保するか
数か月議論を重ねました。」
-
-
-
-
-
-
-
-
-
-
So, when we're talking about democratic votes
like the one that's going on in India right now,
I can see a future where whoever loses the election
will now be able to blame fake news...
..maybe more than anything else,
is that the future that we're destined for?
-
-
「民主的な選挙について、
それは今インドで実施されていますが、
例えば投票した人物が負けてしまったら
他のどの要素よりフェイクニュースの影響に
責任を置くと思いますが、その流れが
今後の未来の行き着く先だと思いますか?」
-
-
-
-
-
-
-
-
-
-
I think it's the past we've already lived in.
I think people have always complained
that the election was rigged and it wasn't fair
for one reason or another,
the newspapers are biased, whatever it might be.
There's always been those complaints.
What's true now that didn't used to be true
is that a small group of people
can control communications to million of other people
that their opponents can't see.
So, we've targeted online advertising now,
it's possible to advertise to millions of people,
but only a selected group of people.
You can advertise just to men with one message
and just to women with anouther message,
or an even more, sometimese quite sinister
targeted groups of people.
That has to be made transparent
or we really will have a problem with an election
where people can say this all happened surreptitiously
in the dark, without scrutiny.
If an election is not a shared experience,
it ceases to be truly a democratic experience.
-
-
「既に情報の流れに責任を置く向きは有ります。
人々は常にその媒体がどんな形・流れであれ
選挙自体が仕組まれているのではないかと不満を漏らします。
真実とされてこなかった確かなことは
ごく一部の人が対立候補が見えない形で大衆に発信できることです。
つまり、オンライン上の広告は数百万人を定めたものですが、
特定の人物を狙う形で男性ならこのメッセージ、
女性なら他のこのメッセージといった具合に、
悪意を持って特定部分に狙いを定めています。
選挙の問題になるであろう
そういったものの透明性を図るべきです、
検閲なしに蔓延っている情報対策を。
もし完全な共有が為されていないなら、
それは民主主義の終わりです。」
-
-
-
-
-
-
-
-
-
-
In India especially, there's a lot of sharing going on
on WhatsApp. Now, that's not public,
everything happens inside private, encrypted groups,
how on earth can you fact-check WhatsApp groups
and what they're sharing?
-
-
「インドでは特にWhatsappで共有されていますが、
それは大衆向けではなく各セッションが暗号化された
プライベートなグループ対話となっていますが、
どのようにWhatsappのグループ内の
ファクトチェックを行うのでしょうか?」
-
-
-
-
-
-
-
-
-
-
We don't know yet, it's something that
people in my line of work talk to each other about
and it's a concern.
We were pleased that WhatsApp made the move
to reduce how easy it is
to forward information on WhatsApp
because that can make dangerous information
go viral with too little scrutiny.
But actually, it is going to come down to
individual users of WhatsApp
and every other messaging platform saying:
I don't want to share thing swith my friends
that I think might not be true.
Because no one actually wants to milead their friends.
-
-
「まだ具体的な方策は上がっていません。
専門家の間でもそれが懸念となっています。
私たちはWhatsapp側に完全な情報を
簡単に扱える状態を減らすように求めています。
そういった情報は簡単な検閲で広く拡散してしまうからです。
結局、Whatsappの個別ユーザーや各プラットフォームが
それが真実ではないと思ったら共有はしないことが重要です。
友人をミスリードさせたいと思う人は居ませんから。」
-
-
-
-
-
-
-
-
-
-
But it seems to me, with human nature
that we want to share
sensational-sounding information
and that's been true before social media as well.
That's just not going to stop, is it?
-
-
「しかし、人というのは扇動的な内容や
大げさな内容を好んで共有する向きがあると思います。
そういったものを押さえるべきではありませんか?」
-
-
-
-
-
-
-
-
-
-
It's not going to stop, no,
but, equally, pub conversations
for the 100 years have not all been completely accurate.
People have told nonsense at the market,
nonsense at the pub, nonsense around the kitchen table
for generations.
It's not necessary to create a world in which
nobody says anything that's inaccurate
or sensationalised.
All we need to do is spot where it's causing harm
and then ask people to think twice
and say actually, if you're sharing information
about how to vote, but you're not sure that it's right,
that's the point you need to stop and think
before you share.
-
-
「そういったものを止めることは難しいでしょうね。
過去数百年に渡って取り交わされてきた対話・雑談というのは
市場やパブやキッチンで話されることは
必ずしも正確ではなく、正確性が必要不可欠な要素ではありません。
私たちがすべきことは害を齎す部分の探知と、
投票に限っては人々に情報が間違っている形で
共有される可能性が十分にあることを知らせ、
共有前に検討の必要性を認識させることです。」
-
-
-
-
-
-
-
-
-
-
Do you think Facebook and other social media plaftorms
are doing enough at the moment to counter...
-
-
「Facebookやその他SNSは
十分な対策を導入していると思いますか?」
-
-
-
-
-
-
-
-
-
-
No, we don't. We think that they have now started
to take some serious and useful steps forward,
but, actually, they need to do more.
They need to be changing the product
so that it makes it easier for people to work out
what they can and cannot trust.
We need to see more research, more independent research
into where problems are
and what harms really arise from them.
We need more data sharing
and with a program
that Facebook came to us with recently,
they started, for the first time,
to give outsiders an insight as to what's going on
in the platform, they started to integrate fact-checking
nto the product.
That is a decent first step, but it is not the last.
-
-
「そうは思いません。
前進の様子・動きは見られまですが、
信頼性確保に繋がる製品・サービスの改修が要点であって、
有害因子に対する更なる調査と独立調査を
投入することが先決です。
私たちにはデータの共有が必要です。
今回Facebookから齎された計画では
その企業の内外とのデータ共有・協力から
ファクトチェックの在り方について議論が進められています。
それは確かな前進ですが、それで終わりではありません。」
-
-
-
-
-
-
-
-
-
-
Thank you for your time.
-
-
「お時間いただき、ありがとうございました。」
-
-
-
-
-
-
-
-
-
-
Thank you.
-
-
「いいえ、こちらこそ。」
----------------------11分32秒----------------------
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
[放送ダイジェスト1:インド総選挙とフェイクニュース]
-------------------------------------------
名称:
組織:Digital Empowerment Foundation、
組織:Facebook、NewsMobile、AltNews
人物:OSAMA MANZAR(Digital Empowerment Foundation)
人物:KAUSHIK LYER(Engineering Manager for Civic Integrity, Facebook)
人物:SAURABH SHUKLA(NewsMobile)
人物:PRATIK SINHA(AltNews)
人物:WILL MOY(Director, Full Fact)
期間:
分類:フェイク、SNS、政治、社会問題、プロジェクト
場所:
価格:
-------------------------------------------
<インドの国民投票(実施中)>
概要1:有権者9億人の世界最大の選挙に
概要2:選挙期間は20州で5週間
概要3:先5年のリーダーを決める
概要4:規模は桁外れでも偽情報問題は他国と同じ
-------------------------------------------
<インド国内選挙とフェイクニュース>
概要1:インド人は情報の正確性に対する意識が低い
概要2:国民意識の強い内容ほど共有されやすい
概要3:偽情報の土台はWhatsAppとFacebook等のSNSに
概要4:家族や友人からのメッセージは信頼性強く、共有されやすい
概要5:暴力沙汰に発展した偽情報事件で昨年の死者数30人以上
概要6:WhatApp…選挙不正対策にコンテンツ共有上限5回に
概要7:ファクトチェックは最短24時間~48時間かかる
概要8:今回加わるSNS世代の有権者8400万人は偽情報によく気づく
概要9:WhatsAppのプライベート対話形式は対策が難しい
-------------------------------------------
<Facebookの取組み>
概要1:HQに選挙不正対策のタスクフォース立ち上げ
概要2:ファクトチェックに現地企業(NewsMobile)雇い入れ
概要3:選挙誘導のニュアンスが強い場合は即削除
概要4:外部機関との情報共有と対策議論進む
(具体的な対策実施はまだまだこれから)
-------------------------------------------
[備考]
-------------------------------------------
[放送ダイジェスト2:AI絵画はカイガ?]
-------------------------------------------
名称:
組織:VictorWong, Quasimondo
人物:VICTOR WONG(Artist & Inventor)
人物:MARIO KLINGEMANN(Artist)
期間:
分類:AI、アルゴリズム、文化・芸術、作品
場所:
価格:
-------------------------------------------
<AI Gemini>
概要1:NASAや中国当局の衛星データを元に月を描くAI
概要2:全く同じ描き方はしない
概要3:墨絵の基礎技術はプログラムされていない
概要4:いずれAIに感情が入れば作風が変わる?
-------------------------------------------
<Memories of Passersby I>
概要1:先月ロンドンで入札が入った
概要2:敵対的生成ネットワーク活用の生成機
概要3:油絵の創作作品を描く
概要4:実際に売買されるのはスクリーンとコード・暗号含む木材ユニット
概要5:売買の主体は絵ではなく創作アルゴリズムに
-------------------------------------------
[備考]
-------------------------------------------
[放送ダイジェスト3:Samsung Galaxy Fold]
-------------------------------------------
名称:
組織:Samsung
期間:
分類:テック製品、OLED、スマートフォン、テクノロジー
場所:
価格:
-------------------------------------------
<折り畳み式スマホの現状は>
概要1:構想自体は何年も前から存在した
概要2:OLED技術が曲るディスプレイの要
概要3:Samsungが来月$1980で発売予定(・・だった)
-------------------------------------------
<Samsung:Galaxy Fold>
概要1:折りたためばミニスクリーンスマホ
概要2:広げれば7.3インチタブレットに
概要3:折り目は映像の光沢で目立たない
概要4:3つのアプリ同時起動可
概要5:見た目ほどの重量感はない
(S10Plusより重い、iPad miniより軽い)
概要6:折り曲げた際に内側に隙間が出来る
概要7:既に不具合報告多数
-------------------------------------------
[備考]#DoWhatYouCant
-------------------------------------------
[放送ダイジェスト4:人工流れ星]
-------------------------------------------
名称:
組織:ALE、
人物:LENA OKAJIMA(CEO & Founder ALE)
人物:JOSHUA RODENBAUGH(Technology & Coordination ALE)
人物:ADRIEN LEMAL(Research Development Engineer ALE)
期間:
分類:宇宙、テクノロジー、プロジェクト
場所:
価格:
-------------------------------------------
<ALEの人口流れ星>
概要1:元々は宇宙空間の花火を見る為の計画だった
概要2:地球の大気圏で燃える物質をロケットで打ち上げ
概要3:サイズは胡麻程度、軌道到達まで1年ほど
概要4:衛星からリリースするタイミングがシビア
概要5:まだ未完成、2020年の五輪が実地テストに?
-------------------------------------------
[備考]
-------------------------------------------
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
[少し関係の無い話:"Do not put it in your pocket."]
Galaxy Foldの話題でゲームボーイポケットの注意書きを
思い出しました。"ポケットに入る"が1種の宣伝文句だった
にも関わらず、実際には「ポケットに入れないで下さい」の
注意書きが施されていた製品です。勿論、ゲームボーイポケ
ットに欠陥はありませんでしたが、実用想定と宣伝文句の酷
い乖離には近しいものを感じます。
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
[少し関係の無い話2:I guess the bottom one is by a human.
]
]
理由は単純明快。自分で書いたら下に近かったから。(当てずっぽう)