LLMにバイナリを吐かせるのはLLMに外部呼び出しさせず直接数値計算をさせる以上の無駄。AIが直接バイナリを吐く未来予想図を語る人は、AIが人間の理解を超えた何かに進化する物語を語りたいだけ。
ジェネラリストはどんなに有能でもその分野のスペシャリストには敵わないのだ(ならばジェネラリストが必要に応じて各分野のスペシャリストを使役するようにすれば良い)
コンパイラという枯れた最強ツールがあるのに、わざわざ高コストで不安定なAIにバイナリを直接書かせるメリットがないわな。トークン効率の視点も納得
AIがバイナリに類するものを書くようになる未来においては、そこで作られるのはハードウェアも含めた実行処理系毎にならないとおかしいと思ってる。
バイナリを読む(逆アセンブル解析)、くらいでひとつ。
無理というか原理的にコンパイラの方が必ずコスパがいいってことか
AIが吐くのは嘘だけだぞ
2026年1月時点では、だと思うんだけどな。
「未来ではAIがbrainfuckでプログラムを書く」って言ってるのと同じくらい頓珍漢な主張なんだよなぁ
ソフトウェアエンジニアにとっては自明のことだと思うし、ついでにいうと勘違いしてる人を説得する必要もないと思ってる。
思考実験としてとても面白い。
アセンブリまでは吐きそう…と思ったら実際そういう記事だった。/LLMや人間に四則演算させるようなもの。
レビュー不可能
コンパイラーがソースからバイナリを出力できるなら、AIがそれやってもいいんじゃない?って思うんでしょうね。そのうちAIがコンパイラーを扱えるようになって、出力結果としてバイナリ取得はありそうだけど。
warファイルまで固めたの頂戴!って言われたら、はーいと書いたコードを専用の処理に食わせてビルドした結果を投げ返すほうが楽なら、チャッピーもそうするよね。
よしんば吐き出せたとてテスト不可能なブラックボックスをどこまで信頼できるのか
なるほどな。用途によってはコンパイラごと作れるようにすればいいのか。という楽観視をしてしまうくらいに最近は進歩が早い。
なるほろ
そのうちAIが直接バイナリを吐くようになるんではという話は、原理的に難しいし、できるとしてもだれもやらないし、できるようになったとしてもだれも使わないので、今の仕組みのAIが直接バイナリを吐く未来は来ない
『大昔のスーパープログラマーには「16進ダンプリストを見てデバッグしてた」という逸話がある人が割といる』と https://note.com/hkamezawa/n/na4a01c712142 でブコメしたけど、言われてみると、脳の使う部位が違う感じがする(感想
なるほどなぁ
リーナスもAIがプログラミングを10倍加速するならコンパイラはこれまでに1000倍加速してきた言うとったしな。
マシン語を学習したAIにマシン語で指示出したらマシン語で返してくれるかな
“AIでの直接バイナリ出力は、原理的に難しい、原理的に可能でも作る人がいない、実現しても使う人がいない、使おうとしても仕事で使い物にならない、ということで、そういうことができるようにはならないと思いま”
コンパイラを書く仕事をAIが支援することはあっても、直接バイナリは可読性も低いし面倒でしょ。
アセンブリ言語はCPUが効率的に実行できる事に特化した言語だから、一般的なロジックの記述には不向きだよね//チャッピーがgcc内蔵して、バイナリを吐いたら、それはAIがバイナリを直接吐いたと言えるのだろうか
未だにLLMを理解できていないおじさん技術者いるけど、恥ずかしくないんかな?まじで多いんだけど。LLMが得意なのは言葉であり機械語ではないんだよね。こんな説明させるなよ。
sunoとかsora、音とか絵はあんなんバイナリファイルやろ。
自然言語を生成するために自然言語を学習させて作ったLLMなのに、自然言語をスキップさせた方が効率的だ!みたいな発想をする人をみかけるけどどういう捉え方しているのかなと不思議に思う
同じようにAIに一度ツール作らせて処理させたほうが効率的なタスクというのは割とあるし、情報の表現は基本的に掛け算だなあと
自然言語のLLMならそう
バイナリ専用で学習すればいい気はする。構造は単純だから構造のルールもあらかじめ組み込んでおけばそれなりに早くなりそう。ただ、記事にあるようにOS依存もあるし学習素材が豊富にあるかというと・・・。
LLMはそもそも答えのある特化作業をさせるものではないものね。ここで言う答えのある特化作業とは、ソースコードからの最適化バイナリのビルド。言語仕様やJITがLLM向けになるとかのほうがまだありそう
高性能なコンパイラを作れるだろうし、そのコンパイラをAI自ら使うだろう。
まあ確かに
俺はテックもわかるみたいな人文系の人がなんか機械語について言ってたけど仕組みを理解していれば第一感としてはこういう結論になるよな
たしかにまれによく見る話だが、なーんにも考えず適当に軽口叩いてるだけだと思う。5秒くらい考えれば誰でもわかることやん
うむ
この人の中でAIがコンパイラを裏で利用することと、何らかのサービスをエージェントやMCP経由で利用することには何か線引きがあるのだろう。AIが直接、ってなんなんだろうな。
思考とか論理が言語によってるからそう、というのはわからんでもないけど、それはあくまで人間基準の話だしなぁ…。言語によらないAIは考えられるのだろうか?もはやLLMでもないけど。
トークンは近い将来無限に扱えるようになる、従量課金は今だけ
機械語という言葉の字面だけで「機械に向いてる」と短絡でもしたのか。そうでもないとどうしてそんな珍説を唱える奴が現れるのか想像もつかん
llmの教師となるものが人間が生み出したものだし、人間の指示も取り入れるならこれからも高級言語じゃないと難しいと思う。
304バイトは304トークンじゃないと思う
単に学習が足りないだけでコンパイラのコードを学習させれば可能なんじゃないかと思うけど。やってもあんまり意味がない(要するにルールベースだからAIにさせる必要性が薄い)というのなら分かる
コンパイラがあるんだからC吐ければいいやん?
まさかのMSX
なぜそんなことを言ってる人がいるのか皆目見当つかないが、まだ食いっぱぐれることはなさそうで助かる
現時点ではそうなんだけど、そう思ってた時期もありましたって出来事が続いてるからなー。未来はわからない。
みんなAIを持ち上げすぎてコンパイラ舐めすぎだと思う、コンパイラの方がはるかにプログラマの生産性を高めてるし、決定的に動作するシステムの有り難みよ
そうだなぁ、と同意。ただブコメみてネタでMCPなりにgcc実行させる人が現れそうとも思う(それ便利かな?怖くないか?とも思うが)
専門家が思う「やればできるだろうが誰もそのようなことはやらんだろう」をひっくり返してきたのがこの分野なので、断定するのは勇み足かなとは思う
同意。そういう人はLLMが何かわかってないんだろうな。
そもそもの主張が「『2x8』は『2+2+2+2+2+2+2+2』って書いた方がAIにとって効率的じゃないか?」みたいなことを言っていて謎ですよね。「LLMはパソコンで動いてるから機械、機械だから機械語が得意」みたいな理解度なのかな
AIはあくまで人間がこれまでやってきた事をやるだけなのね。マシン語を直接書いてる人がいなければAIもマシン語を書かない。
「コンピューターもAIも同じ機械的な存在だから、いったん人間の言葉に翻訳せずとも直接機械の言葉でやりとりしたほうが効率がいいのでは?」的な発想なのでは?SFの設定ならありかも。
MCPやらツール連携で見掛け上LLMがバイナリ吐いてるように見せる事は出来るし、大方の人間にはそれで十分
要するに電卓で事足りる四則演算をLLMにやらせるようなものだからめっちゃ非効率だしやる意味も無いよな。AIにプログラミング言語とそのコンパイラを作らせてその言語でプログラムを書かせる方がまだ現実味ありそう。
わざわざ丁寧に説明するのえらい…いやそれを始めてしまうといちいち解説を要求する人間が出てきて良くない…わざわざ説明しないほうがいいかもな…(トプコメと同じ結論) / プログラマーにしか自明ではないかもね
せやな。人間が直接バイナリ吐かないのと同じ理由だ
ChatGPTに聞いたら、LLMが「自分でコンパイラを設計し、それを使って世界と相互作用する」という段階に至るには、永続状態、実行能力、観測と評価、自己修正を統合したエージェント化が必要とのこと。
そのうち、膨大なSandboxとかVMを用意しながらコード生成、実行、失敗を自己学習する。力技でなんでもできる。
本文にあるように「今の仕組みのAI」に対しては、この方の言っていることは正しいのだろうけれども、タイトルから想起される(一般的な)AIが将来どんな方向に行くかはわからない。あっさり実現するかもしれない
“304バイトになりました。 これ、AIが出力するとしたら、304トークンになりますね。”ウイスキーみたいな密度だな。
我々素人にはAIが直接バイナリを吐くのと、AIがコンパイラを起動してバイナリを生成することの区別なんかつかない
AIが言語仕様とマシン仕様を読み込んでコンパイラを生成するのは遠い未来に実現してほしいが、バイナリを吐くのは意味が無いよね。最適化の一部くらいは担えるか。当面はコンパイラ屋の仕事はなくならないと思う。
現代のコンパイラはとんでもない効率化の上に存在しているので、そこを経由しないのはあまりに非効率だもんね
AIがコンパイラ使ってバイナリ化する
JSON吐かせるのと同じ要領でトークンごとにあっちゃいけないやつを選ばないよう選定しながら出す、ぐらいのことはできるだろうけど結局ほぼ従来のコンパイラ相当のバックエンド持ってないとダメそう
その目的ならAIからコンパイラを外部呼び出しすれば済む話で、LLMで直接生成のメリットがなさ過ぎるんだよなあ。絶対できないわけではないが、あまりにも非効率すぎる。
古の老エンジニアって子供の戯言に本気になる人多すぎない?伊藤直哉とかさ。
それはそう。コンパイラをAIが外部ツールとしてうまくやるのはあり得ても、AIがバイナリを直接吐くようにはならない
小さいバイナリをテキストエンコードして出力することは可能だと思うが規模が大きくなると破綻しそうだ
ソースコードなくても不具合を解析して直してくれる機能の需要は恐ろしくある。RISC-Vのマシン語の仕様ならコンテキストに丸々乗せられるし、どんな言語で書いたプログラムもそれだけ知っていれば解析出来る。
従来の計算機科学の用途ならばその通りでも、新しい用途があれば違う。天然知能はその身体を動かすのにプログラミング言語を使ってない/AIにAIバイナリを作らせるループの研究とか、AI最適化機能付きコンパイラとか?
AI専用の内部ツールが大量に実装されるようになるので、使う側からするとあたかもAIが直接吐いているようにしか見えなくなる。区別する意味がない
LLMのトークナイザーとコンパイラ/インタプリタのパーザー、Transformerとコンパイラが解の探索にかける計算量を比較してみると、どれだけコンパイラが効率的なことをしているかが想像できるかもしれない。
LLMが、だろう。
単純にルールベースで済む話をAIがやる必要はないよね
この一連の議論の中でCluaude CodeはAGIに達したって言ってる人がいて、AGIってジャンルごとに成立するものなんだっけ?というのと、お高い商用LLMを使える人しか享受できないものをAGIって呼ぶのはなんか嫌だなって思った
これで「じゃあやってやんよ!」と斜め上のAIを目指す人があらわれたらおもろい
何言ってるの、LLMがヒープのダンプ見てメモリリークを特定するところまできてるよ。コンパイラが吐いたバイトコードみて、コンパイラバグを見つけるところまでもうすぐ。 c.f. https://x.com/bcherny/status/2004626064187031831?s=46
そもそも高級言語でコンパイルされて出力されたバイナリを理解しコンパイラを直したりバイナリ自体の修正をしている人は高級言語の使用者のごくごく少数派だし無理でしょう。
コンパイラの機能やそれこそCPUの動作が組み込めればできるようになるのかも。もしくは日本と英語などの翻訳に中間言語的なのを使ってるように、AIにとって使いやすいプログラミング言語みたいなのができたりとか。
何をどう考えたら無知の逆張り以外の理由でAIが直接バイナリを吐くなんて発想に至るんだ。天然無能のハルシネーションには驚かされるな
そういう学習をすれば作れるよ それにどの程度の意味があるかは、知らんけど
反応見てると『AIとはチャットインターフェースのことである』というこのブログの文言が連想される https://www.megamouth.info/entry/2025/05/20/024947
この記事を読んだうえで「学習させれば出力できる」などと宣ってる奴ら、理解力に乏しいことを自覚したほうが良いよ
AIがバイナリを直接吐くようにはならない - きしだのHatena
LLMにバイナリを吐かせるのはLLMに外部呼び出しさせず直接数値計算をさせる以上の無駄。AIが直接バイナリを吐く未来予想図を語る人は、AIが人間の理解を超えた何かに進化する物語を語りたいだけ。
ジェネラリストはどんなに有能でもその分野のスペシャリストには敵わないのだ(ならばジェネラリストが必要に応じて各分野のスペシャリストを使役するようにすれば良い)
コンパイラという枯れた最強ツールがあるのに、わざわざ高コストで不安定なAIにバイナリを直接書かせるメリットがないわな。トークン効率の視点も納得
AIがバイナリに類するものを書くようになる未来においては、そこで作られるのはハードウェアも含めた実行処理系毎にならないとおかしいと思ってる。
バイナリを読む(逆アセンブル解析)、くらいでひとつ。
無理というか原理的にコンパイラの方が必ずコスパがいいってことか
AIが吐くのは嘘だけだぞ
2026年1月時点では、だと思うんだけどな。
「未来ではAIがbrainfuckでプログラムを書く」って言ってるのと同じくらい頓珍漢な主張なんだよなぁ
ソフトウェアエンジニアにとっては自明のことだと思うし、ついでにいうと勘違いしてる人を説得する必要もないと思ってる。
思考実験としてとても面白い。
アセンブリまでは吐きそう…と思ったら実際そういう記事だった。/LLMや人間に四則演算させるようなもの。
レビュー不可能
コンパイラーがソースからバイナリを出力できるなら、AIがそれやってもいいんじゃない?って思うんでしょうね。そのうちAIがコンパイラーを扱えるようになって、出力結果としてバイナリ取得はありそうだけど。
warファイルまで固めたの頂戴!って言われたら、はーいと書いたコードを専用の処理に食わせてビルドした結果を投げ返すほうが楽なら、チャッピーもそうするよね。
よしんば吐き出せたとてテスト不可能なブラックボックスをどこまで信頼できるのか
なるほどな。用途によってはコンパイラごと作れるようにすればいいのか。という楽観視をしてしまうくらいに最近は進歩が早い。
なるほろ
そのうちAIが直接バイナリを吐くようになるんではという話は、原理的に難しいし、できるとしてもだれもやらないし、できるようになったとしてもだれも使わないので、今の仕組みのAIが直接バイナリを吐く未来は来ない
『大昔のスーパープログラマーには「16進ダンプリストを見てデバッグしてた」という逸話がある人が割といる』と https://note.com/hkamezawa/n/na4a01c712142 でブコメしたけど、言われてみると、脳の使う部位が違う感じがする(感想
なるほどなぁ
リーナスもAIがプログラミングを10倍加速するならコンパイラはこれまでに1000倍加速してきた言うとったしな。
マシン語を学習したAIにマシン語で指示出したらマシン語で返してくれるかな
“AIでの直接バイナリ出力は、原理的に難しい、原理的に可能でも作る人がいない、実現しても使う人がいない、使おうとしても仕事で使い物にならない、ということで、そういうことができるようにはならないと思いま”
コンパイラを書く仕事をAIが支援することはあっても、直接バイナリは可読性も低いし面倒でしょ。
アセンブリ言語はCPUが効率的に実行できる事に特化した言語だから、一般的なロジックの記述には不向きだよね//チャッピーがgcc内蔵して、バイナリを吐いたら、それはAIがバイナリを直接吐いたと言えるのだろうか
未だにLLMを理解できていないおじさん技術者いるけど、恥ずかしくないんかな?まじで多いんだけど。LLMが得意なのは言葉であり機械語ではないんだよね。こんな説明させるなよ。
sunoとかsora、音とか絵はあんなんバイナリファイルやろ。
自然言語を生成するために自然言語を学習させて作ったLLMなのに、自然言語をスキップさせた方が効率的だ!みたいな発想をする人をみかけるけどどういう捉え方しているのかなと不思議に思う
同じようにAIに一度ツール作らせて処理させたほうが効率的なタスクというのは割とあるし、情報の表現は基本的に掛け算だなあと
自然言語のLLMならそう
バイナリ専用で学習すればいい気はする。構造は単純だから構造のルールもあらかじめ組み込んでおけばそれなりに早くなりそう。ただ、記事にあるようにOS依存もあるし学習素材が豊富にあるかというと・・・。
LLMはそもそも答えのある特化作業をさせるものではないものね。ここで言う答えのある特化作業とは、ソースコードからの最適化バイナリのビルド。言語仕様やJITがLLM向けになるとかのほうがまだありそう
高性能なコンパイラを作れるだろうし、そのコンパイラをAI自ら使うだろう。
まあ確かに
俺はテックもわかるみたいな人文系の人がなんか機械語について言ってたけど仕組みを理解していれば第一感としてはこういう結論になるよな
たしかにまれによく見る話だが、なーんにも考えず適当に軽口叩いてるだけだと思う。5秒くらい考えれば誰でもわかることやん
うむ
この人の中でAIがコンパイラを裏で利用することと、何らかのサービスをエージェントやMCP経由で利用することには何か線引きがあるのだろう。AIが直接、ってなんなんだろうな。
思考とか論理が言語によってるからそう、というのはわからんでもないけど、それはあくまで人間基準の話だしなぁ…。言語によらないAIは考えられるのだろうか?もはやLLMでもないけど。
トークンは近い将来無限に扱えるようになる、従量課金は今だけ
機械語という言葉の字面だけで「機械に向いてる」と短絡でもしたのか。そうでもないとどうしてそんな珍説を唱える奴が現れるのか想像もつかん
llmの教師となるものが人間が生み出したものだし、人間の指示も取り入れるならこれからも高級言語じゃないと難しいと思う。
304バイトは304トークンじゃないと思う
単に学習が足りないだけでコンパイラのコードを学習させれば可能なんじゃないかと思うけど。やってもあんまり意味がない(要するにルールベースだからAIにさせる必要性が薄い)というのなら分かる
コンパイラがあるんだからC吐ければいいやん?
まさかのMSX
なぜそんなことを言ってる人がいるのか皆目見当つかないが、まだ食いっぱぐれることはなさそうで助かる
現時点ではそうなんだけど、そう思ってた時期もありましたって出来事が続いてるからなー。未来はわからない。
みんなAIを持ち上げすぎてコンパイラ舐めすぎだと思う、コンパイラの方がはるかにプログラマの生産性を高めてるし、決定的に動作するシステムの有り難みよ
そうだなぁ、と同意。ただブコメみてネタでMCPなりにgcc実行させる人が現れそうとも思う(それ便利かな?怖くないか?とも思うが)
専門家が思う「やればできるだろうが誰もそのようなことはやらんだろう」をひっくり返してきたのがこの分野なので、断定するのは勇み足かなとは思う
同意。そういう人はLLMが何かわかってないんだろうな。
そもそもの主張が「『2x8』は『2+2+2+2+2+2+2+2』って書いた方がAIにとって効率的じゃないか?」みたいなことを言っていて謎ですよね。「LLMはパソコンで動いてるから機械、機械だから機械語が得意」みたいな理解度なのかな
AIはあくまで人間がこれまでやってきた事をやるだけなのね。マシン語を直接書いてる人がいなければAIもマシン語を書かない。
「コンピューターもAIも同じ機械的な存在だから、いったん人間の言葉に翻訳せずとも直接機械の言葉でやりとりしたほうが効率がいいのでは?」的な発想なのでは?SFの設定ならありかも。
MCPやらツール連携で見掛け上LLMがバイナリ吐いてるように見せる事は出来るし、大方の人間にはそれで十分
要するに電卓で事足りる四則演算をLLMにやらせるようなものだからめっちゃ非効率だしやる意味も無いよな。AIにプログラミング言語とそのコンパイラを作らせてその言語でプログラムを書かせる方がまだ現実味ありそう。
わざわざ丁寧に説明するのえらい…いやそれを始めてしまうといちいち解説を要求する人間が出てきて良くない…わざわざ説明しないほうがいいかもな…(トプコメと同じ結論) / プログラマーにしか自明ではないかもね
せやな。人間が直接バイナリ吐かないのと同じ理由だ
ChatGPTに聞いたら、LLMが「自分でコンパイラを設計し、それを使って世界と相互作用する」という段階に至るには、永続状態、実行能力、観測と評価、自己修正を統合したエージェント化が必要とのこと。
そのうち、膨大なSandboxとかVMを用意しながらコード生成、実行、失敗を自己学習する。力技でなんでもできる。
本文にあるように「今の仕組みのAI」に対しては、この方の言っていることは正しいのだろうけれども、タイトルから想起される(一般的な)AIが将来どんな方向に行くかはわからない。あっさり実現するかもしれない
“304バイトになりました。 これ、AIが出力するとしたら、304トークンになりますね。”ウイスキーみたいな密度だな。
我々素人にはAIが直接バイナリを吐くのと、AIがコンパイラを起動してバイナリを生成することの区別なんかつかない
AIが言語仕様とマシン仕様を読み込んでコンパイラを生成するのは遠い未来に実現してほしいが、バイナリを吐くのは意味が無いよね。最適化の一部くらいは担えるか。当面はコンパイラ屋の仕事はなくならないと思う。
現代のコンパイラはとんでもない効率化の上に存在しているので、そこを経由しないのはあまりに非効率だもんね
AIがコンパイラ使ってバイナリ化する
JSON吐かせるのと同じ要領でトークンごとにあっちゃいけないやつを選ばないよう選定しながら出す、ぐらいのことはできるだろうけど結局ほぼ従来のコンパイラ相当のバックエンド持ってないとダメそう
その目的ならAIからコンパイラを外部呼び出しすれば済む話で、LLMで直接生成のメリットがなさ過ぎるんだよなあ。絶対できないわけではないが、あまりにも非効率すぎる。
古の老エンジニアって子供の戯言に本気になる人多すぎない?伊藤直哉とかさ。
それはそう。コンパイラをAIが外部ツールとしてうまくやるのはあり得ても、AIがバイナリを直接吐くようにはならない
小さいバイナリをテキストエンコードして出力することは可能だと思うが規模が大きくなると破綻しそうだ
ソースコードなくても不具合を解析して直してくれる機能の需要は恐ろしくある。RISC-Vのマシン語の仕様ならコンテキストに丸々乗せられるし、どんな言語で書いたプログラムもそれだけ知っていれば解析出来る。
従来の計算機科学の用途ならばその通りでも、新しい用途があれば違う。天然知能はその身体を動かすのにプログラミング言語を使ってない/AIにAIバイナリを作らせるループの研究とか、AI最適化機能付きコンパイラとか?
AI専用の内部ツールが大量に実装されるようになるので、使う側からするとあたかもAIが直接吐いているようにしか見えなくなる。区別する意味がない
LLMのトークナイザーとコンパイラ/インタプリタのパーザー、Transformerとコンパイラが解の探索にかける計算量を比較してみると、どれだけコンパイラが効率的なことをしているかが想像できるかもしれない。
LLMが、だろう。
単純にルールベースで済む話をAIがやる必要はないよね
この一連の議論の中でCluaude CodeはAGIに達したって言ってる人がいて、AGIってジャンルごとに成立するものなんだっけ?というのと、お高い商用LLMを使える人しか享受できないものをAGIって呼ぶのはなんか嫌だなって思った
これで「じゃあやってやんよ!」と斜め上のAIを目指す人があらわれたらおもろい
何言ってるの、LLMがヒープのダンプ見てメモリリークを特定するところまできてるよ。コンパイラが吐いたバイトコードみて、コンパイラバグを見つけるところまでもうすぐ。 c.f. https://x.com/bcherny/status/2004626064187031831?s=46
そもそも高級言語でコンパイルされて出力されたバイナリを理解しコンパイラを直したりバイナリ自体の修正をしている人は高級言語の使用者のごくごく少数派だし無理でしょう。
コンパイラの機能やそれこそCPUの動作が組み込めればできるようになるのかも。もしくは日本と英語などの翻訳に中間言語的なのを使ってるように、AIにとって使いやすいプログラミング言語みたいなのができたりとか。
何をどう考えたら無知の逆張り以外の理由でAIが直接バイナリを吐くなんて発想に至るんだ。天然無能のハルシネーションには驚かされるな
そういう学習をすれば作れるよ それにどの程度の意味があるかは、知らんけど
反応見てると『AIとはチャットインターフェースのことである』というこのブログの文言が連想される https://www.megamouth.info/entry/2025/05/20/024947
この記事を読んだうえで「学習させれば出力できる」などと宣ってる奴ら、理解力に乏しいことを自覚したほうが良いよ