2015年10月2日金曜日

語学テキスト:Click 26/09/2015

 英文の著作権はBBCに帰属します。日本語訳について、

正誤の如何に関わらず無断転用・転載を固くお断り致します。
 
 
 
 
 
 
 
 
 
 
===============================================
 
 
This week,
we're bringing Artificial Intelligence to life
as we teach computers to walk, talk
and see.
Prepare for the rise of the machines.
 
 
今週は、AIを育むため、コンピュータに
歩くこと・話すこと、視ることを教え込む。
機械の覚醒・飛躍に備える時だ。
 
 
 
 
 
 
 
 
Last week, we got up close and personal
with Artificial Intelligence.
We met quiz champion Watson
who is now turning his hand to company acquisitions
and cooking.
And we saw how AI can learn to be better than us
at writing computer code,
coaching sports
and working towards treating cancer.
 
 
先週、私たちはAIの様相に迫った。そこで見つけた
クイズチャンピョン"Watson"は、企業買収
料理などに応用されている。また私達よりも
優れた役割を熟すものとして、プログラムを自ら
記述するAIや、スポーツコーチになるAI、癌治療に
働きかけるAIなどを見てきた。
 
 
 
 
 
 
 
 
This week, we're going to go one better.
We going to build an artificial intelligence
and to do that, we need three things:
A really silly costume,
Click's resident computer boffin
【Stephen Beckett】, hello,
and a massive laboratory!
good, innit?
Photorealistic, stunningly rendered
and almost finished - they'll fix that【next wednesday】.
 
 
「今週は更に1歩進んでいきます。AIを構築して
みましょう。そこで必要なものを3つ取り揃えました。
非常に馬鹿げたコスチュームに、こちらは
クリック専属の科学者"Stephen Beckett"さんです、
そして、この巨大な研究所。なかなかのものでしょう?
驚くほど写実性に凝った造りで、大部分は完成済み。
あそこは来週水曜までに直るでしょう。」
 
 
 
 
 
 
 
 
Anyway, 【Stephen】has been building
an【aritificial】intelligence
and you've been training【it】to learn how to walk.
【that's right?】
-
-
「ともかく、StephenさんはAIを構築し、
歩き方について学ばせている、そうですね?」
-
-
-
-
Yeah, sort of like walking. Come and have a look.
it's probably easier to show you on the computer.
So this is the game called QWOP,
so called because it uses the letter Q W O and P
to control the character.
The aim of the game is to run along racecourse
【just】using those letters to control【it's】legs.
It's actually【very very】difficult to control.
-
-
「えぇ、歩き方のようなものを。こちら来てください、
実際に御覧になった方が早いでしょう。
このゲームは"QWOP"と呼ばれています、
その由来はキャラクターの操作に
"qwop"のキーを使用するからです。
ゲームの軸は競技場を走ることで
足のようなものの操作に文字を使うだけです。
実際のコントロールはとても難しいものですよ。」
-
-
-
-
【Extremely difficult
especially on a completely imaginary computer.
【Yeah, okey, I'm rubbish.
-
-
「極めて難しいもので、
コンピュータ上の特異な空想に富んだものです。
こんな具合でしょうか。駄目ですね。
-
-
-
-
【yeah, you're rubbish. You keep on falling over. 】
-
-
「えぇ、駄目ですね。落ち続けてます。
-
-
-
-
Good.
Now,【Stephen】has used - correct me if I'm wrong -
a type of artificial intelligence
called a neural newtork.
-
-
Stephenさんが使ったのは、私の記憶違いでなければ、
利用されたものはAIの1種である"neral network"です。」
-
-
-
-
Yes.
-
-
「その通りです。」
 
 
 
 
 
 
 
 
This is where the real science starts
so get ready.
Steve, hit us!
-
-
「ここは本物の科学者の出番です。準備はいいですか。
Steveさん、解説を宜しく。」
-
-
-
-
You can think of neural networks
as very simpl【ified】 models of our own brains.
We've got【billions】of neurons
which let us do all sorts of amazing things
like speaking, dancing
and, well, programming neural networks.
-
-
「newral networkの視方・考え方としては、
私たちの脳をとてもシンプルに設計した物と捉えてください。
数十億の神経細胞は
私達に素晴らしい様々なことを実現させてくれます、
話すことや、踊ること、neural networkのプログラムも同様に。」
-
-
-
-
【It's all】very meta.
-
-
とても形而上学らしい(神秘的な)ものですね。
-
-
-
-
Thank you.
computerised 【neural】networks
are【much much simpler, of course】,
we're talking【dozenof neurons rather than】billions.
【just like us though, it needs a signal to work with】
And where we have eyes, it has data.
-
-
ありがとう。コンピュータのAIネットワークは
とてもシンプルな構造で、私たちは会話の際に
数十億の神経細胞を交感作用させますが
AIは単体の信号で機能とします。
目を開けば、そこにはデータがあります。
-
-
-
-
【Yeah,】
We're【gonna】give【it】just a few bits of information,
things like the【angle】of QWOP man's body parts.
This is how our neural network
sees the world.
-
-
「そう、私たちは
ほんの僅かな情報を与えようとしている、
例えばQWOPののボディパーツのようなもの(形)として。
これは私たちのneural networkが見定める世界だ。」
-
-
-
-
At the other end of the network,
there are four output【neurons】
-【one for each of the four letters
that control QWOP man.】
if one of these neurons fires,
the corespondent】 key is pressed
and the appropriate body part moves.
-
-
「一方、ネットワークは4つのアウトプットから
成り立っています。1つ1つの文字が
QWOPキャラの制御(コントロール)となり、
神経細胞に従ってキーが装填された(押された)時、
適切なボディーパーツが動くのです。」
-
-
-
-
And in the middle, that's where the magic happens.
It'll start as a very simple network of neurons
sending and combining signals,
but by the end, boy, will it be a lot more【complicated】.
-
-
「そしてその中では、魔法が起こっているわけだね。
初めは簡単な神経細胞が送られ、
信号として組み合わさり、
最終的には、より複雑な物になる。」
-
-
-
-
The more complex a network gets,
the better it should be at playing QWOP.
This is the learning process
and it starts as trial and error
- kind of like how we learn as kids.
So, that's the basics.
-
-
「より複雑に入り組んだものをネットワークが受取り、
うまく行けばQWOPがその指示通りに動きます。
この学習プロセスは、試行錯誤でもあり、
子供の学習プロセスに近いものです。
ここまでが基礎部分の話ですね。」
-
-
-
-
The basics? Excellent.
I look forward to the detail later.
-
-
「なるほど。
更に詳しい内容は後ほど見ていきましょう。」
 
 
 
 
 
 
 
 
And just to say, the set may be stupid,
the experiment may seem silly,
but this is real computer science we're doing here.
-
-
今更だが、このセットは非常に馬鹿げていて、
その実験も非常にバカっぽく見えるものだ。
しかし、ここでコンピュータ科学の力をご覧入れよう。
-
-
-
-
Fire it up.
-
-
「起動(ボタン)を。」
-
-
-
-
Was that entirely necessary?
-
-
「…ここまでする必要が?」
-
-
-
-
I think it was actually, it adds something.
-
-
「えぇ、勿論です。何か追加されていると思います。」
-
-
-
-
Right, so there's a lot of horizontal stuff【going on】.
-
-
「様々な方向(向き)をするようになりましたね。」
-
-
-
-
He'll spend quite some time falling over.
-
-
時間を掛けて前方に倒れるようですね…。」
-
-
-
-
Will he ever get up?
-
-
「彼は(どうにか)起き上がれそうですか?」
-
-
-
-
If we do running for awhile....
Maybe it's run.
Fingers crossed.
-
-
「離れて様子を見ましょう。
たぶん大丈夫ですよ。陰ながら応援しましょう。」
-
-
-
-
【Good luck.】
-
-
「幸運を。」
 
 
 
 
 
 
 
 
learning to walk is one of many life skills
and AI has to learn
before it can have its dastardly way with us.
And while QWOP man attempts to stand,
【I thought】I'd take a trip to Oxford University
to meet the researchers looking at another aspect
of understanding the world around us.
sight.
 
 
生活に必要な歩行の学習は
AIが学ばなければならないものだ、
卑しく臆病な方法をとることになる前に。そして、
QWOPのキャラが立ち上がることを試みる中で、
"Oxford university"で私たちの周囲の
敷地・用地を別の角度から観察する機械を
研究する人物と面会したことについて視ていこう
 
 
 
 
 
 
 
 
Human senses work rapidly
and in complete harmony
to perceive the world around us
and our brains have incredible capacities
to easily interpret this deluge of information.
Computers find this task incredibly hard
because the real world is not easily represented
by pure data.
Researchers are working on computer vision
so one day, robots can do the same.
 
 
人の感覚は素早く機能するもので周囲の世界を
完全な一致で知覚し、私たちの脳は驚くべきほどの
収容能力で洪水の如く押し寄せる情報の波を
簡単に判断・解釈する。コンピュータが
その方法・方式を見つけるのは非常に難しい。
現実世界は純粋なデータで簡単に
表現できるものではないからだ。研究者たちは
コンピュータの視覚について手掛けていて、何時の日か
ロボットも同じ観方が出来るようになるのだろう。
 
 
 
 
 
 
 
 
For it to be successful, the computer needs to be able
to distinguish items in a scene,
identify what it's looking at
and develop an understanding of its circumstances
so it can complete its task.
 
 
成功のためには、
その場面の品目を見分けられるようになることで、
観ているものの認識と
その状況の理解を確立出来るようになること、
それが理想の形だ。
 
 
 
 
 
 
 
 
The researchers are woking on a neural network
that can identify 20 objects at a time.
Now, that doesn't sound like many,
but if they get this right 
they can apply the same method
to millions of objects.
The network is fed manually-separated images.
As it scans the features of an object,
it develops and tweaks its understanding,
it learns from its mistakes
and gets better at recognising other instances.
 
 
その研究者たちが手がけている"neural network"は
同時に20の物体を認識できるそうだ。
今の所、その数は多くはないように聞えるものだが、
しかし、上手く研究が進めば同じ方式で
数百万個の物体を把握できるようになる。
そのネットワークは手作業で画像を分別している。
同時に物体の扱い方もスキャンし、
その造りやひねり・引っぱり(形状)を理解している。
過ちから学び取ることで
他の(物体の)認識に役立てている。
 
 
 
 
 
 
 
 
Most importantly,
it gets more efficient at it every time.
But for it to be of any use,
it needs to get it right as often as humans do
and very quickly, no matter how tricky the scene.
The greatest minds
from the world's【leading】AI research centres
are all working on this problem.
【But】even with only 20 items to recognise,
the best software around can only get it right
three quarters of the time.
 
 
更に重要なのは、毎回より効率的に
動作するようになること。しかし、そういった
使い方をするためには、人間と同程度の頻度で
正しく素早く認識できるようになる必要がある、
どんなにトリッキーな(扱いづらい)シーンであっても。
世界をけん引する最も優れたAI研究施設では
この問題の全てを手掛けている。しかし、
20の品目の認識でさえも、現状で最善の
ソフトウェアを使ったとしても
物体の4分の3しか正しく認識することが出来ない。
 
 
 
 
 
 
 
 
This is where some human help might come in handy.
Here's a room with some objects in
And I'm using a 3-D infrared camera
to scan my surroundings.
 
 
ここは人助けに役立つものがある場所だ。
この部屋には幾つかの物体が配置されている。
そこで私は周囲をスキャンするため
3D赤外線カメラを使っている。
 
 
 
 
 
 
 
 
Now I'm going to hand the camera to Stewart
while I label the scene
and you do that like this.
 
 
「Stuartさんの方にカメラを手渡し
私はそのシーン標識化ます。
このような具合です。」
 
 
 
 
 
 
 
 
As I go around touching the items,
I'm quickly identifying the different classes of objects
in my environment.
So, one day we might all be able to help our machines
to recognise our stuff
no matter how unique it is.
But the world we live in
doesn't stay still
 
 
また同時にアイテム(品目)に触ると、周辺環境の
物体の異なる種類・分類を素早く見分ける。
つまり、何れは物の認識に機械の助けを
得られるようになる、その物体が
どんなに独特なものであっても。しかし、
私たちの住まうこの世界は、じっとしてはいない。
 
 
 
 
 
 
 
 
 
So another team of reseachers here at Oxford
are working on applying the same principle
to moving scenes,
segmenting objects from their background
on the fly
which's exactly what these prototype,
augmented-reality glasses are doing.
They're made for partially-sighted wearers
and they use the same dynamic algorithm
to highlight things of interest.
 
 
ここOxfordの他の研究チームは場面の動きを
同じ原理で供給するものを手掛けていて、
動作中にその背景から物体を分割するものだ。
それはまさしく、3Dグラスの性能を
増補・増大させたものだ。彼らは
目の不自由な人が着用するものとして設計し、
どの場面でも利用できるものとして、
興味深いハイライトにするため
同じ動的アルゴリズムを用いている。
 
 
 
 
 
 
 
 
This is really effective actually.
I can understand how if you have impaired vision,
this will really help you
to navigate around.
Things that are closer to you appear brighter,
those that are further away are darker
and all the edges are really emphasised
so you really can work out which objects
you might want to avoid.
 
 
「これは非常に使えるものです。
視力を損なっていたとしても状況が分かるもので、
周辺を案内する助けとして有効に機能します。
貴方に近い物体は光で表示されます。
遠くのものは暗く表示されます。
縁の部分は非常に強調されていて、
上手く物体を避けられるようになります。」
 
 
 
 
 
 
 
 
What we want to do is produce
these augmented-reality glasses
that will help partially-sighted people see.
I think that's a really good waypoint
for us to test the algorithm,
see how well they work.
I think vision itself will be really useful
for navigation and【understanding the world,】
completing tasks,
so I think all of those things are key.
Actually having perception is key
to making robots successful.
 
 
3Dグラスを増強した私たちの製品の目的は
十分な視力の無い人が物を視る助けとなることです。
アルゴリズムのテスト、
その途中経過・結果は非常に良好で、
モノを視る助けとして上手く機能しています。
その視覚は用事を熟すための
周辺環境・世界の理解(認識)と移動に
役立つものとなります。
そして、それら全ての要素は鍵となるのです。
実際に知覚力を持たせることが
ロボットを成功へ導く鍵なのです。」
 
 
 
 
 
 
 
 
Away from the lab,
it was the week that Apple had to remove some of its apps
from the App Store in China.
The Apps had been created by developers using counterfeit software.
Unbeknown to them, the Apps were infected with malware that
enabled hackers to secretly steal data about users.
-
-
「研究所から離れ、今週アップルは
中国のアプリストアから幾つかのアプリを
削除しなければならなくなりました。そのアプリは
偽造ソフトウェアを使った開発者によって
生み出されたアプリだそうで、知らないうちに
そのアプリはマルウェアへの感染を促し、
ユーザーの秘匿データをハッキングしやすい状態にするそうです。」
-
-
-
-
If you've ever felt like shouting,
get out the road, the hazardous selfie takers, well, do.
Because this week we found out that more people
are killed taking selfies than by sharks.
-
-
「ひょっとすると最も叫びたくなるかもしれません、
外へ出て冒険的なセルフィーを撮る人も同様に。
その訳は、今週多くの人がサメ撮影を試みて
死傷者が多数出ているからです。」
-
-
-
-
Brain to computer technology
has helped paralysed man walk.
This is the first time it's been done without the use of robotics.
The brain controls the legs directly through electrodes.
-
-
「脳に掛かるコンピュータテクノロジーは
麻痺を負った男性の歩行に役立っているようです。
これはロボット工学を使うことなく初めて成功した際の映像です。
その制御法は電極を通じて足を直接動かす仕組みです。」
-
-
-
-
Facebook has announced it's now rolling out 360 degrees video
in timelines,【for the】more immersive experience.
A range of publishers have signed up
with content including an exclusive 360 experience
【from out coming】the【movie】Star Wars【awakened】.
-
-
「Facebookはタイムライン上により没入型の体験となる
360度のビデオを展開することを発表しました。
その範囲は、発行者(パブリッシャー)がサインアップした際に
コンテンツが解放されるもので、その中身はStar Warsの映画から
起き上がって出てきたような360度の体験・経験となるようです。」
-
-
-
-
And finally, have you ever thought about using
your head to send a text message?
Yes, you have.
Check out these new smart hair extensions.
They detect touch and then
use machine learning algorithms to recognise a user's contention.
You can even record conversations without being noticed.
Or I can message my mum while presenting the news.
-
-
「そして最後に、貴方の頭部を使ってテキストメッセージを
送ることについて考えたことはありますか?
そう、それが出来るのです。
その新たな髪の機能拡張について見てみましょう。
それは接触を感知し、
ユーザーの口論を認識するため学習アルゴリズムを使います。
貴方は気付かれること無く録音が出来るようになるのです。
母親に重大ニュースを発表する際に使ってみようと思います。」
 
 
 
 
 
 
 
 
区切り:9分37秒
 
 
 
 
 
 
 
 
Back in the lab, the neural network
behind our QWOP man
has been trying different keystrokes
for quite a while.
Most attempts have ended in an immediate face plant.
But then this happened.
It achieved a step.
The shuffling began.
 
 
話は再び研究所に戻り、"neural network"を背後に
制作された私たちの"QWOP man"は
かなり長い時間を使って異なるキー入力を試みている。
その殆どは頭から突っ込形で終わっている。
しかし、その中でこれが起きた。歩行(ステップ)の達成。
引きずって歩き始めたのだ。
 
 
 
 
 
 
 
 
Very cool, I'm a proud parent,
baby's first step.
-
-
「良いですね、子供を誇る親になった気分です、
赤ちゃんの第1歩のようですね。」
-
-
-
-
There he goes.
-
-
そのようですね。
-
-
-
-
I think now is a brilliant time
to take a look inside.
How is the neural network doing that?
-
-
「今私が考えているのは、内部の動きに関することです。
"neural network"はどのように作用しているのでしょうか?」
-
-
-
-
Well, we can dive inside of its brain.
-
-
「では、実際に内部に潜り込んでみましょう。」
-
-
-
-
【Crikey, we have.】
-
-
いやはや…、さっそく視てみましょう。
 
 
 
 
 
 
 
 
So the brain of our AI is actually changing over time.
In effect, it's rewiring itself in different ways
to try and get better at moving our QWOP【man】.
It does this using another idea
pinched from nature : evolution.
If we go back through the vast aeons of time
to the start of the show,
we can look at the QWOP primordial soup.
--
--
「視ての通り、私たちのAIは長い時間を掛けて
変化しています。実際に別の方法として
再配線が施され、QWOP manの
よりよい動作試験に繋がっています。
自然から摘まんだ表現をするなら、これが進化論です。
もし永遠とも言える時間を通り過ぎて
最初の部分に戻ったら、QWOPの
原始スープ(起源)を視ることが出来るでしょう。」
--
--
--
--
--
--
Inside this soup
are hundreds of randomly generated neural networks,
- all of them very very simple.
One by one, each of these networks
is given a go at controlling QWOP man.
Most of them will be pretty rubbish this
- hence all the falling over -
but a few, essentially thanks to blind luck,
will be a little bit better.
Those ones, the ones that get the furthest fastest,
are eventually given the chance to reproduce
with other high-achieving QWOP brains.
--
--
このスープの内側はランダムに生成された
neural networkそのものであり、
その全て(造り・中身)は非常にシンプルです。
1つ1つの各ネットワークは"QWOP man"の
制御部分に付与・適用されます。
その多くは、このような可愛らしい失敗に、
横倒しに終わっています。しかし少しして、
幸運にも上手い具合の動作に繋がっています。
そしてその1つは、最遠・最速の時を経て、
ゆくゆくはより高度な"QWOP brain"(network)を
伴う再現の勝機に繋がってゆくことでしょう。
--
--
--
--
--
--
Over time, by breeding the rest of each generation
and also throwing in a few random mutations
along the way,
we get networks that are more complex
and, crucially, much better at playing QWOP.
--
--
各世代の余りある繁殖を積み重ね、
その方式に沿った無作為な変異が投じられ、
私たちは、より入り組んだネットワークを獲得し、
QWOPのよりよい動作に繋がってゆくのです。
 
 
 
 
 
 
 
 
Now, there are many different ways of moving about
on two legs,
but there're no guarantees that our neural network
will settle on that good, old left, right thing.
In fact, QWOP man seems to have settled
on this kind of shuffle
and this is the method it's now refining.
 
 
今の所、2本の脚の様々な異なる動きとなっているが、
私たちの"neural network"が、その左右の良い形を
決める保証は無い。実際に、QWOP manは
引きずって歩く形・種類に落ち着いていて、この方式が
今現在の精錬法(精錬された形)となっている。
 
 
 
 
 
 
 
 
That really is brilliant.
Incredibly slow, painfully【slow】, I have to say.
-
-
「非常に輝いていますよね、
信じられないほど遅く、痛々しいぐらい遅い…、
どうしても言いたくなってしまいますね。」
-
-
-
-
I wouldn't want to watch it do the whole race
【at that speed.】
-
-
「レース全体を(レース終わりまで)
視れそうにありませんね。」
-
-
-
-
【No, its】True.
-
-
「勿論、その通りです。」
-
-
-
-
The only way to make it go faster
is to leave it running for longer,
【maybe tinker with a few settings.】
-
-
「(唯一の)早送りの方法で
稼働させておけば、
成功に繋がるかもしれませんね。
設定を弄る必要がありそうです。
-
-
-
-
Okey, tinker away.
-
-
分かりました。そうしてください。
 
 
 
 
 
 
 
 
Yeah, we really should've bought a real keyboard.
Still, as we've been seeing over the last two weeks,
AI has been creeping into many areas of life.
I say "creeping" because it is often thought to be,
well, creepy to have bad
as well as good effects.
As AI gets better, for instance,
will it one day take our jobs?
 
 
私たちは本物のキーボードを用意すべきなのだろう。
私たちが過去2週間に渡って視てきたことは、
AIは私たちの生活の至る所に這い回っているということ。
"這い回る"と表現したのは、それがしばしば、良い影響と
同じぐらい悪い影響にもノロノロと動くものだからだ。
AIも良くなっていき、例えば、ひょっとすると
いつの日か私たちの職に掛かる日がくるのだろうか?
 
 
 
 
 
 
 
 
区切り:12分10秒
 
 
 
 
 
 
Over in San Francisco, one
 
 
 
 
 
 
 
 
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
[修正箇所1]
 
 
→company acquisitions
 
 
起業の利得を"hand to":(回す)ことから企業買収。
weblioでは"corporate acquisition"で"企業買収"と登録
されています。
 
 
 
 
 
 
 
 
[修正箇所2]
 
 
→And where we have eyes,
 
 
"have"の意味は非常に幅が広いですね。状況を
汲み取って判断するしか無いのでしょう。
以下、Weblioの参考です。
 
 
----------------------
・所有している
・特徴を持っている
・能力を持っている
・飼っている
・感情を抱いている
・病気にかかる
・得る、貰う
・取る、つける
・情報を入手している
・食べる・飲む
・経験する
・過ごす
・催す
・つかむ
・やっつける
・買収する
・性交する
・....etc
----------------------
 
 
 
 
 
 
 
 
[修正箇所3]
 
 
→trial and error
 
 
改めて調べたところ、意味は"試行錯誤"です。
気付いたときに"はっとする"表現ですね…。
 
 
 
 
 
 
 
 
[修正箇所4]
 
 
→some time
 
 
"sometime"ではなく"some time"で、
"一定の時間"を表した意味のようです。
 
 
 
 
 
 
 
 
[修正箇所5]
 
 
→in complete
 
 
"incomplete"なら"不完全"で逆の意味になります。
 
 
 
 
 
 
 
 
[修正箇所6]
 
 
→【Crikey, we have.】
 
 
全く聞き取れなかった部分です。
 
 
 
 
 
 
 
 
 
 
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
[放送ダイジェスト01:QWOP]
 
 
Qwop_2
 
 
簡単なキー操作を愉しむフラッシュゲームの名称です。
番組では独自に構築したAIでQWOPの操作と思考学習を
行わせる企画を展開していました。"Google play"にて
上位版が99円で販売されています。実際にFlash版を
試してみました。Youtube動画のような動きは出来ず、
最初は7メートル、次は13メートルで断念しました。
シンプルな操作・描写・取っつき易さが人々の関心
を強く惹きつける要素となっているのでしょう。
姉妹作"ASKL"では逆走に終わりました…。
 
 
 
 
 
 
 
 
 
 
[放送ダイジェスト02:麻痺の男性に再び歩みを]
 
 
Techbrainsignal
 
 
麻痺を負った男性を機械工学無しにテクノロジーの
力で歩行を実現しようという取組です。健常者は頭
から足に信号が送ることで足を自由に動かします。
人体麻痺の場合、頭と足の交感神経が上手く機能せ
ず、自らの意思で動かすことは出来ません。このテ
クノロジーは交感神経の役割を果たし、当人の足に
直接信号を送る装置です。完璧な歩行実現には改良
の必要があるものの、非常に画期的な技術です。
 
 
 あまり動画を長く視ていられませんね。麻痺を負
った男性を見ていると、健康の有難味を感じる反面、
人の不幸をダシにしているような愚かさを感じます。
"可哀想"と言葉にしても体裁止まりで無意味な感情
を走らせているような、動画を見ていると泣きたい
気持ちになりますが、これも体裁なのでしょう。
 
 
 
 
 
 
 
 
 
 
[放送ダイジェスト03:IPsoft"Amelia"]
 
 
 
 
フローチャートの会話システムが"Amelia"です。
会話に応じるAIとして機能し、不明瞭な言葉は
人間のオペレータに問い合わせ、その意味を新
たな言葉としてフローチャートに登録するのだ
と、番組内で紹介されています。以前の記事で
"現状のAIは命令処理のエンドレスに過ぎない"
と表現しました。AIに特別詳しい方ではないた
め、無意識に記述表現していましたが、そのエ
ンドレスの数式体系が"neural network"を指し
ていたようです。
 
 
 
 
 
 
 
 
 
 
[放送ダイジェスト04:ELI Robot Arm]
 
 
 
 
お馴染みの"TJWatsonリサーチセンター"で
研究開発されているAIロボットアームです。
言語を認識するAIとして、2012年に既に
公開されています。これまで放送で紹介さ
れたAIは全て自立思考するものではありま
せんが、人々の仕事に成り代わる可能性は
十分に考えられます。例えばスーパーなら
レジの完全自動化、インフラなら自動走行
に対応した郵便配達ロボ、鉄道に応用すれ
ば人力不要の24時間営業スタイルに切り替
わるでしょう。勿論、導入コストに関わり
直近10年以内の話ではありませんが、自動
タクシーが動き始めている現状を考えるな
ら、想定すべき未来の話です。
 
 
 
 
 
 
 
 
 
 
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
[少し関係の無い話:放送スタイル]
 
 
 随分と凝った放送内容に変わっています。
セット・衣装供に違和感なく嵌っています。
最後のオチまで手抜きの無い仕上りに少し
驚いています。髭と蝶ネクタイの似合うス
ペンサーにも少し驚いています。今回の放
送は最もテック番組らしい造りとなってい
ました。なかなかのものですね。
 
 
 
 
 
 
 
 
 
 
[記事編集に関して]
 
 
 余計なピックアップを省く形式に切り替え
ました。今後、修正箇所は和訳の確認や特殊
なフレーズ確認に範囲を留めます。時短含め、
視易さや復習効率を上げるための策です。
 
 
 
 
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

0 コメント:

コメントを投稿