🦁ひげ情報:1️⃣現在🧠AIは司法試験に通った人間の『15%程』能力が高いさうだ2️⃣人間の🧠脳の100倍のAGIは2~3年後に訪れる3️⃣🇯🇵ニッポンは1000万人の失業者で溢れるコトに💢:🧠AI進化の加速:1年で48年分の進歩
【AI進化の加速:1年で48年分の進歩】英語解説を日本語で読む【2024年1月5日|@David Shapiro】2024年1月7日 17:03AIExperts...Revise Pre-dictions by...48 YEARS -We're in the...🔚End🔚game now!この動画では、AI研究者による予測が1年間で48年分短縮されたことを示しています特に注目されているのは、労働の完全自動化と高度な機械知能(HLMI)の実現ですHLMIは、すべてのタスクを人間より優れた品質で、より安価に達成できることを意味し、2023年の予測では2047年までに50%の確率で実現するとされています労働自動化の予測も同様に早まりましたが、予測の幅は広がっていますこれらの変化は、人間の認知バイアスの脆弱性と、ムーアの法則を超えるAIの進歩の速さを示しており、2024年までに高度な機械知能(AGI)が実現する可能性があることを強調しています公開日:2024年1月5日※動画を再生してから読むのがオススメですScience is supposed to be based on data, math, and evidence, so I was really thrilled when one of my Patreon supporters tagged me in a tweet that came out that was linked to this paper.科学はデータ、数学、証拠に基づくべきですので、私はとても興奮しました。私のPatreonのサポーターの一人が私をツイートにタグ付けしてくれたのですが、それはこの論文に関連していました。Thousands of AI authors on the future of AI.AIの未来についての数千のAIの著者たち。So, this paper most notably shows that several predictions based on all of the AI researchers have, in the space of one year from 2022 to 2023, dropped by as many as 48 years in terms of when they predict certain milestones to occur.この論文では、特に2022年から2023年の1年間に、多くのAI研究者による予測が、特定のマイルストーンが発生する時期に関して最大で48年も短縮されたことが示されています。So, the two milestones that I'm most interested in are full or full automation of labor and HLMI, which is, or HLMI, High-Level Machine Intelligence.私が最も興味を持っている2つのマイルストーンは、労働の完全自動化または完全自動化とHLMI、つまりHLMI、高度な機械知能です。So, let me just go ahead and jump right to the data, and then I'll spend the rest of the time unpacking it.では、まずデータに直接進んで、その後の時間をデータの詳細な解説に費やします。If you don't want to watch the whole thing, that's fine.全体を見たくない場合は、問題ありません。I also know that I'm out of uniform.私も制服を着ていないことは承知しています。I apologize.お詫び申し上げます。My uniform is down at the ship's press.私の制服は船のプレスルームにあります。So, High-Level Machine Intelligence, is achieved when uned machines can accomplish every task better and more cheaply than human labor.高度な機械知能は、未熟な機械があらゆるタスクを人間の労働よりも優れて安価に達成できるようになったときに達成されます。You know me, always saying better, faster, cheaper, safer.私のことを知っているでしょう、常に「より良く、より速く、より安く、より安全に」と言っています。I would add two, not just better and more cheaply, but also faster and safer.私は2つ追加します、より良く、より安くだけでなく、より速く、より安全にも。Anyways, that's kind of implied.とにかく、それは暗黙のうちに含まれています。Ignore aspects of tasks for which a human being is intrinsically advantageous, such as being accepted as a jury member.人間が本質的に有利なタスクの側面を無視してください、例えば陪審員として受け入れられることなど。Think feasibility, not adoption.採用ではなく、実現可能性を考えてください。In both 2022 and 2023, respondents gave a wide range of predictions, etc., etc.2022年と2023年の両方で、回答者はさまざまな予測をしました、などなど。The aggregate forecast of 2023 predicted a 50% chance of HLMI by 2047, down 13 years from 2060 in the 2022 survey.2023年の集計予測では、2047年までにHLMIの50%の確率が予測され、2022年の調査では2060年から13年早まりました。So, in the space of one year, all of the so-called experts revised their predictions down by 13 years.したがって、たった1年の間に、すべてのいわゆる専門家たちは予測を13年早めました。That is an exponential difference.それは指数関数的な違いです。For comparison, in the six years between 2016 and 2022, the survey's expected date moved only one year earlier.比較のために、2016年から2022年の6年間では、調査の予想日はわずか1年早まりました。So, again, from 2016 to 2022, the prediction only revised down one year, from 2061 to 2060.ですので、2016年から2022年までの予測はわずか1年早まり、2061年から2060年になりました。But then, in just a single year, 2022 to 2023, it revised down 13 years.しかし、たった1年の間に、2022年から2023年には13年早まりました。So, as people have observed, the human predictions are exponentially decaying now.したがって、人々が指摘しているように、人間の予測は指数関数的に減衰しています。And so, this study is less about artificial intelligence and more about the fragility of human cognitive biases.そして、この研究は人工知能よりもむしろ人間の認知バイアスの脆弱性についてのものです。And I'll unpack what I mean by that after we get through the data, because I'm going to be on my soapbox for a minute.そして、データを見終わった後に、私がそれをどういう意味で言っているのかを説明します。私はしばらくの間、自分の主張を述べます。Now, the other thing that this does is it looks at, let's see, where is it?さて、これがもう1つのことです。どこにあるか見てみましょう。The full automation of labor, full or fail, or however you want to say it.労働の完全自動化、完全または失敗、またはどのように言いたいか。Anyways, this one shifted earlier by 48 years since 2022, but the confidence interval.とにかく、これは2022年から48年も早まりましたが、信頼区間は。So, this is the primary graph that I want to focus on.ですので、これが私が焦点を当てたい主要なグラフです。The red year is 2023.赤い年は2023年です。The aggregate forecast of full, or sorry, 2023 is this one.全体の予測は、2023年がこれです。すみません、2023年です。2022 is this one.2022年はこれです。I apologize.申し訳ありません。I had that colors are backwards.私は色が逆だと思っていました。So, the shallower curve is basically slower takeoff with a wider confidence interval.したがって、より浅い曲線は基本的にはより遅い上昇で、信頼区間が広いです。And then, the thinner red line that is steeper, faster takeoff.そして、より急な傾斜のある細い赤い線は、より速い上昇です。Okay, so you see, but still, again, in the span of one year, we went down by 48 years that we revised the 50% Mark.わかりましたが、それでも、1年間で、私たちは50%のマークを48年間下方修正しました。And so, that was, let's see, in this case, it's what I think 2125 or something for the 50% Mark.そして、これは、この場合、50%のマークが2125年くらいだと思います。So, they're predicting that we're going to have full automation of Labor in more than a century, which is laughable to me because if you have, High-Level Machine Intelligence, let's see, the 50% is going to be by like 2045, which is right in time for Singularity, which again, that seems kind of absurd to me.したがって、彼らは労働力の完全な自動化が100年以上先になると予測していますが、それは私にとっては笑えることです。なぜなら、高度な機械知能があれば、50%のマークは2045年くらいになるはずであり、それはシンギュラリティの時期とちょうど重なるため、それは私にはかなり不合理に思えます。So, imagine that this trend continues next year, so imagine a year from now and at the end of 2024, this survey will be run again, and imagine if this rate of change, this rate of revising things down in this curve is even steeper.したがって、この傾向が来年も続くと想像してください。つまり、1年後の2024年末には、この調査が再び行われ、この変化の速度、この曲線の下方修正の速度がさらに急速になると想像してください。So, 2024 is right here, so this is where we're at, 2025.したがって、2024年はここにあります。つまり、私たちがいる位置は2025年です。So then, imagine you have a curve that's even steeper by just as much, and so highle machine intelligence, it would look like it would hit about here, so that's like 2035, 2040, right between 2025 and 2050.したがって、同じように、同じくらい急な曲線があると想像してください。そして、高度な機械知能の場合、ここくらいに達するように見えます。つまり、2035年、2040年、2025年と2050年の間です。So, 122 years, so 2037, let's say if it gets revised down, but again, like okay, this is, we're in the end game now of exponential decay.したがって、122年です。つまり、2037年、下方修正されるとしますが、それでも、これは指数関数的な減衰の終局です。And likewise, imagine that the trend line gets even steeper next year, so project about there.同様に、来年はさらに傾斜が急になると想像して、その辺りを予測してください。So then, they're going to say full automation of Labor is going to happen by 2075 rather than 2125 or whatever.それで、彼らは労働の完全自動化が2125年ではなく2075年に起こると言うことになるでしょう。All right, I opened with these graphs because when I talk about trend lines and data, one of the most durable trend lines that we've had access to for literally a century now, or at least we have data going back a century, this observation wasn't made until much more recently, is Moore's law.では、これらのグラフで始めたのは、傾向線とデータについて話すときに、私たちが実際に1世紀以上にわたってアクセスしてきた最も持続的な傾向線の1つ、少なくともデータは1世紀前からありますが、この観察は最近まで行われていませんでした。それがムーアの法則です。Moore's law says that, you know, the capability, you know, computational capability go, doubles every 18 months.ムーアの法則によると、計算能力が18ヶ月ごとに2倍になるとされています。Someone at Intel said that it's every 3 years now, but there's other things going on that might subvert that, whatever, we're right on Target because if you look at some of these other ones, basically when you say, okay, 2023, which is where we're at right now, is right when you're at about the computational strength of one human brain.インテルの誰かが今は3年ごとだと言っていますが、それを覆す可能性がある他の要素もありますが、私たちは目標に向かっています。なぜなら、これらの他のものを見ると、例えば、2023年、つまり私たちが現在いる時点で、ちょうど1つの人間の脳の計算能力に達しているからです。So now that we're in 2024, we're a little bit past that, and obviously these are for higher-end computers that are going to get across the Finish Line first, but when you have seven billion parameter models, 20 billion parameter models that are able to code better than humans, translate better than humans, and they are, those are just language models, we don't even have small multimodal models yet that are going to just completely explode everything that's going to be happening, we are going to cross these thresholds very quickly.では、2024年になると、それを少し超えています。もちろん、これらは最初にゴールに到達する高性能なコンピュータのためのものですが、70億パラメータモデル、200億パラメータモデルが人間よりも優れたコーディング、翻訳ができるようになっているのです。それらはただの言語モデルですが、まだ小さなマルチモーダルモデルはないので、起こるすべてのことを完全に爆発させるものです。私たちはこれらの閾値を非常に速く超えるでしょう。And so when I say like, hey, AGI by the end of 2024, this is what I mean.ですから、私が「2024年末までにAGI」と言うとき、これを意味するのはこれです。This primary trend line is what I have been constantly referring back to, as my primary data source, the primary evidence.この主要なトレンドラインは、私が常に参照してきたもので、私の主要なデータソース、主要な証拠です。And so what I'll close with on my soapbox is I still have people who unironically, like, I honestly can't discern sometimes between trolling and just actual stupidity.そして、私が自分の持論を締めくくる際に言いたいことは、皮肉でもなんでもなく、正直に言って、悪意のある挑発と単なる愚かさとの区別が時々つかない人々がまだいるということです。I literally have people who unironically will tell me that, oh, AGI is at least decades away, and I'm like, based on what evidence, like seriously, based on what actual, actual data, what actual evidence are they basing that prediction on, and it's none.私には本当に、皮肉でも何でもなく、「AGI(人工汎用知能)は少なくとも数十年は先のことだ」と言う人々がいます。そして私は、「何の根拠に基づいて、本気で、何の実際のデータ、何の実際の証拠に基づいてその予測をしているのか」と尋ねますが、その答えは何もないのです。There's no actual data, no actual evidence to suggest that things are that far away.そこには実際のデータも実際の証拠もなく、それほど遠い未来だということを示唆するものもありません。Now, you might say, like, okay, yes, some of these experts predict that, like, oh, it's many decades out, but what are they basing that on?今、あなたは言うかもしれません、はい、一部の専門家は、それは数十年先だと予測していますが、それは何に基づいているのでしょうか?And so what I've observed, and I've talked to a lot of people, what I've observed is that in most cases, these predictions that it's decades away is just an emotional gut check.そして、私が観察したこと、そして多くの人々と話したことから、私が見てきたのは、ほとんどの場合、これらの「数十年先」という予測は単なる感情的な直感に過ぎないということです。And this is one of the core cognitive biases that humans have, is that we have a very strong preference for the status quo, we have a very high fear reaction to things that are going to disrupt the world as we know it, and it makes us very uncomfortable.これは、人間が持つ核心的な認知バイアスの一つで、現状維持を強く好む傾向があり、私たちが知っている世界を乱すようなものに対して非常に強い恐怖反応を示します。そして、それは私たちを非常に不安にさせます。And so what you're actually measuring when you ask people for an emotional gut check of how far away is AGI, what you're really asking, what this is actually measuring, is how far away they are emotionally comfortable with these changes happening.ですから、人々にAGI(人工汎用知能)がどれくらい遠くにあるかという感情的な直感を尋ねるとき、実際に測定しているのは、彼らがこれらの変化が起こることに感情的にどれだけ快適に感じるか、ということなのです。So they're emotionally comfortable with High-Level Machine Intelligence arriving with a median of around 2040 or so they say.彼らは高度な機械知能が2040年頃に到来することに感情的に快適なのでしょう、と彼らは言います。Ah, that's far enough away that I feel comfortable with that advent.ああ、それは十分に遠い未来であり、私はその到来に快適です。This is in no way anchored to the actual data, the actual trends of what machine intelligence has achieved over the last year.これは実際のデータ、機械知能が過去1年間で達成した実際のトレンドには関係していません。And so when you ask people, when do you think that we'll have the full automation of all labor, what you're really asking is when are you emotionally comfortable with this reality happening?したがって、人々に「全ての労働が完全に自動化されるのはいつだと思いますか?」と尋ねるとき、実際に尋ねているのは「この現実が起こることに対して、あなたが感情的に快適に感じるのはいつですか?」ということなのです。Now, one thing is that reality doesn't give a damn about human emotions.ただし、現実は人間の感情には全く関心がありません。This is coming sooner than these charts would indicate, and it's coming whether or not you are emotionally ready for it.これはこれらのグラフが示すよりも早くやってくるし、感情的に準備ができているかどうかに関係なくやってくるのです。Now, I know that most of you in my audience are like, well yeah, that's why we're here, Dave, like I subscribe for this reason because you're the one telling us this.私の聴衆のほとんどが、「ええ、だからこそ私たちはここにいるんだよ、デイブ。だって、この理由で購読しているんだから。あなたが私たちにこれを伝えてくれるからだよ」と思っていることはわかっています。For those that are not yet on board, for those that still pop up in the comments and message me on LinkedIn telling me that I'm a lunatic, all right, here's where I'll close, quintessential story.まだ納得していない方々、コメントで登場したりLinkedInで私に「あなたは変人だ」とメッセージを送ってくる方々へ、ここで私が締めくくりたいのは、典型的な話です。I had someone who was, came to some of my meetups and stuff, and was all on board with AI, and he started messaging me one day and like commenting on YouTube, commenting on LinkedIn, messaging me, just like telling me that I was, like, he's like, you are delusional, none of this is possible.私のミートアップなどに参加し、AIにすっかり乗り気だったある人がいました。ある日、彼は私にメッセージを送り始め、YouTubeやLinkedInでコメントをし、メッセージを送ってきて、私が妄想していると言い、これらのことは何も実現不可能だと主張しました。And then, a few weeks later, I kid you not, he was in another Discord server posting about how he had used GPT to make a completely sentient, self-programming this, that, and the other.そして、数週間後、信じられないことに、彼は別のDiscordサーバーで、完全に知覚し、自己プログラミングすることができるものを作るためにGPTを使用したと投稿していました。I'm like, Oh, that's when I figured it out.私は、それが私が気づいた時です。The dude was fraking terrified of what he was able to do with AI.彼はAIで何ができるかに恐怖を感じていたのです。And so, what he did was he lashed out.そして、彼は感情的に反応しました。And this is the most extreme reaction.これは最も極端な反応です。He lashed out emotionally because he was scared of what he saw.彼は怖いものを見たので感情的に反応しました。He was scared of what he saw, that he built a machine that was able to follow instructions and go find pieces of code and find stuff from the internet.彼は、命令に従ってコードの断片やインターネットから情報を見つけることができる機械を作ったことに恐怖を感じていました。And to be fair, like, what he built was impressive.公平を期すために言えば、彼が作ったものは素晴らしいものでした。But the fact that he had lashed out at me so viciously for being the messenger to say, like, Hey, this is coming sooner than you might be ready for.しかし、彼が私に対してこれほど激しく反発した事実は、私が伝えた「これはあなたが思っているよりも早くやってくる」というメッセージに対するものでした。And then he changed his mind.そして、彼は考えを変えました。He's like, Oh, look at what I've done.彼は、「私がやったことを見てください」と言いました。And he wanted, but he was so scared of it, he wanted to show people in secret and whatever.しかし、彼はそれに恐怖を感じていたので、人々には内緒で見せたいと思っていました。And that's also not an uncommon reaction where people think that they have breathed life into GPT-3 or GPT-4 through some prompt engineering.そして、それはGPT-3やGPT-4に命を吹き込んだと思っている人々の一般的な反応でもあります。So anyways, that's my soapbox.とにかく、それが私の説明です。That's my spiel.それが私のスピールです。I wanted to keep it nice and short.短くまとめたかったのです。The paper is out.それでは、論文が出ました。Here it is.これがそれです。It's from reputable sources.信頼性のある情報源からです。It's from Berkeley University of Bonn in Germany, more Berkeley, Berkeley University of Oxford, right?バークレー大学、ボン大学、ドイツ、さらにバークレー大学、オックスフォード大学からですね。This is a pretty reputable, you know, pre-print.これはかなり信頼性のある、プレプリントです。So anyways, thanks for watching.とにかく、ご視聴ありがとうございました。Cheers.乾杯。I hope you liked it.気に入っていただけたら嬉しいです。Blah, blah, blah.なんとなく、なんとなく、なんとなく。Etc.など。See you.ではまた。🌟超📰黒星★承認💮