AIで出力は年齢に合わせて調整できるが、音声認識の結果確認は漢字変換済み。UIが「漢字を読める人」前提に設計され、子供は音声入力後に「読めないけど、ボタンあるし、とりあえず紙飛行機ボタン押してみよう」に
モデル側だけ調整して満足しがちだけど、UIが読字能力前提のままだと詰む典型例だな
いい加減、ワークフローとかいじらせずに、感覚で入力UIをカスタムさせてくれよな、それこそAIに頼んだらある程度柔軟にUI変えてくれれば嬉しい。ぐちゃぐちゃになったらリセットできるようになってればいいから。
geminiは通常13歳以上だが、保護者がファミリーリンクアプリ(またはウェブサイト)を使用し、子供のGoogleアカウントに対してGeminiのアクセスを個別に有効にすれば13歳未満でも利用できる。by gemini
入り口部分の再検討。
なるほど
親同席の読み上げ必須でしか使わせたことないんだけど(普通に会話してる感じ)、Geminiがいつまでたっても「話」と「話し」の違いを覚えないのが地味にイラつく(ほんとに地味だな)
友達のところの子供もキーボードやフリック入力覚える前に音声入力で生成AI使ってる的な話ししてたなあ。物理入力じゃ駄目な人は老害化していくのかも。
Siri・Google アシスタント・my daizみたいなアシスタントAIみたいに、音声を認識したら確認なしでそのまま回答モードに移行するしくみだったらいいんだけどね...。
基礎教育のレベルにあった段階のUIデザインにすべきということだし、Geminiのサービス提供側は中学校卒業レベルを対象に作成しているだけじゃないの?
漢字の勉強になるんじゃね?
これ英語圏だとどうなんだろ?
音声入力UIに年齢コントロール機能が無い問題。カスタムGemで「音声入力→ひらがなで聞き返す→はいと言われたら推論実行」というモードは作れた。漢字に限らず「意図を聞き返す」のは低年齢向けに良いかも。
うんうん。せめてそれくらいの漢字が読めるようになってから使わせようね。/英語だって、例えば one という言葉を耳で知ってても、綴りを知らなきゃ読めないよ。何か大人でも怪しいじゃん。
このブログの書き方、言葉遣いがGeminiに引きづられてて面白い
日本語なら漢字が音声入力結果として使われるのは仕方ない。その情報はAIも判断に使うので。子供だけでの使用はそもそも想定していないので対応する必要がない。年齢制限ちゃんと確認しよう。
「回答する前に私が入力した文を全てひらがなにして出力し、入力内容が合っているか確認するフェーズを設けてください」というプロンプトを入れる、というのを思いつきました。試していないので効果は分かりません。
「最初に、入力内容を小学校1年生でもわかるように反復して」とか仕込んでみて!「仕事でやっていることと同じ構造だった」などと気づきを得る前に、眼の前の問題を解決するのがエンジニアだろ~ガハハ!
Geminiの対象年齢がどうのという個別の問題に還元するのには賛同できない。話者年齢に対応する音声入力がほぼ存在してない構造的問題だと思うので
これは結構、地味に大事なことでは?少なくとも将来ドラえもんみたいな子育て・幼児教育ロボットを運用するために必ず必要になる。
音声入力UIはもっと進歩の余地あるわなあ
UIをうわっ被せして、音声認識結果を分かりやすく開くAgentを介して入力チェックなどすれば小学生にも使える家庭教師AIが開発できそうね。
なんで音声入力にしたの?
「前回の質問入力文をひらがなにしてください」でいけた。繰り返してたら雰囲気で漢字読めるようになるやろ
Gemini「(´・ω・`)知らんがな」
まだ早いってこと
まず入力者の情報を与えてないから、デフォルトオトナ向けで出力するってだけでは?声だけで小学生かを判定できるようなレベルにはまだ到達してなくね?
うちの小学生の息子は声が高すぎて、iPhoneのマイクでは十分聞き取れないということがあった笑
“これは教育論というより、設計の話だと感じています。” それは大人&エンジニアであるあなたの視点であって、本事案の本質的な要は教育論ですよ。まずは兎に角、子供には大量の読書体験をさせた方が良い。
学習は英語のほうが有利なのではと感じてしまうな。英単語なら知らない文字は入力されないはずだし。
漢字も読めねえガキに、即答えを放り投げてくるAI使わせるとか害悪でしかないと思うが...
せめてローカルLLMで楽しんでくれー、おっかない。
音声入力側に自分が知らない漢字はひらがなにするような制御するより音声入力結果を確認せずに信じるほうが精度的にましではある。結局日本語で質問したのも次の行でまず英語になったりするわけで、、、
音声だけでやりとりすればいいのでは?画面見る必要ある?
これはUIとアクセシビリティの話であってAIは関係ない。筆者も結論がそうなっている。タイトルの「小1にGemini」ってワードしか見てない誤ったブコメが多すぎる。
確かに出力は変えられても入力部分は同じだな。LLMというよりアプリとしてのGeminiの問題、、というか課題ではある/基本的に対象年齢が13歳以上らしいから仕方ないんじゃないか
iPhoneの音声認識、自分の滑舌が悪いせいもあってうまく聞き取ってくれん。特化したLLM提供してくれんかね
「小学1年生でも分かるように」文章を組み立てられても、入力側のUIまでは変えられてませんねエージェントとしては片手落ちですね、という話 そこまでやる義理ねえよ派閥もいるだろうけど、UXデザインとしてはいい命題
現時点では小児に向いたツールではないと。こうやってニーズはあるのだから、問題提起は大事。要否はそれから考えれば良いやね
おー、これは盲点。と思いつつ、ここで引っかかるのがQAエンジニアっぽいという感想も持ってしまう。AIは誤変換も推定して回答してくれるので子供もそのうち気にしなくなるのでは
教えてなくても勝手に読めるようになるよ。
優秀なお子さんだ。小4の息子に使わせたらこんな困ったことがあった。 息子「ぱんちょんちんじょーぶじょーがばらっぴょきゃぱらじゅぶぐあ、ウキャキャw」 Gemini「聞きとれませんでした」 息子「ウキャキャw」
Geminiのペルソナに小1は想定されてなかったという話だよね。使わせたいのならGemini API使って専用のアプリを作ったほうがよさそう。Let's Vibe code!!
まだ対人コミュニケーションが発達してないうちに相談相手がGeminiになるって普通に怖いけどな。研究結果はまだないだろうがやらせたくない。
AIを使わせるのが目的ならChatGPT使わせればいいのに。漢字の勉強をAI依存にするのは危なっかしいし、UIのせいにするのも他責すぎる。漢字ドリルさせろ。こういうエンジニア親()のエゴが大嫌いだ。
面白い。出力の前に入力できるか、ユーザーが自分の入力を確認できているか、確かに見落とされがちな前提かもしれない。子どもに限られない話ではある/そういうもの、と思ってたら進歩もない
geminiの話なのに文章の書き方がGPTでちょっと面白い
設定とかマイクとかいろいろ面倒なのではやくgemini for home来てくれ
スマホのフリックやらゲーム内キーボードでいくらでもチャットしそうだからどうとでもなりそう
なるほど英語ネイティブになれば解決するのか。
会話だけでやりとりできるgemini live使えばいいと思った
アプリの対話モードの完成度上げるのが一番かな。ディスレクシアとかも含めたユニバーサルデザインの設計って大事だと思う。個別の学習フォローが要る人間にとってAI有効だけどUXで弾いたら意味がない
カスタム指示で「実行前に、一旦質問を全てひらがなにして確認して、はいと返事したら答えて」ったやったら上手くいったよ。
音声入力に切り替えたらそれ専用の読まずに済むUIに…それってGemini Liveじゃん
その内紙飛行機ボタンを押すフェーズを省くだろうし過渡期の問題だろうね。
ブコメに後ろ向きな💩コメがたくさん集まるのね。批判の良いやりかたを学べるUIも、私たちの社会的な、将来の課題でありますねえ…。
音声だけでやりとりさせたらええやん
文が何言ってるのか分かりづらい。私だけ?大意は分かるけど
ある程度物心つくと&大人はプライドってもんがあるから、AI側で勝手に相手のレベルに合わせてくれるといいんじゃない。
音声入力だと子供の発音をうまく認識してくれないとか誰か言ってたな
ひらがなで てうち すれば?
AIがつくったプロダクトは使わせてもいいかもしれないが、AIにはっきりしたミッションを与えずに小1と対話させていたらだめ。ATOKか何か、学年別の変換がなかったか
チャッピーに英語翻訳してもらったあと脳死でメール送信してる
スマホのマイクで質問すると音声で返ってくる。が、会話に間ができると、そのまま返答が始まってしまう。
適切なタイトルで、適切な内容・結論だと思うが。 ブコメが何を議論しているのか、さっぱりわからん。 で、中学以上じゃないとやはりあかんかったということだけで、なんかおかしいことあるか?デイリーポータルや
小1の話にしてるからわかりづらいんであって、例えば盲者だったらUIは適切だったか、みたいな話をしたいのでは
英語と日本語の違いでしかない。そもそも音声入力した内容を確認する必要ある?電話するとき「何と話したか文字列で表示してほしい」というニーズある?
音声入力が小1レベルを超えた結果を返している……これは盲点。
それを解決しようとしたら、AIが音声で入力を復唱するしかない気はする。同音異義語問題を解決するにはある程度の学力はいるけど。
利用者の多様性における認知負荷の話なのに知らないのが悪いみたいなブコメがあって、何一つわかってねえな感がすごい
トークナイザーが正しく変換出来てるかわからないので文字が読めて確認出来ても本質的には信用できない/AIは間違わない事前提の設計なので
UI設計論として面白く読んだ。ギャップの改善
“AIの回答は年齢に合わせられたのに、入力UIは「読める人」を前提にしたままで ターゲット定義が“モデル側”だけにあり、“UI側”に無かった という状態でした。”
これは大人も一緒で休職の話してるのに給食の話にされてたり、何故音声入力が勝手に異口同音の化け物の日本語をデフォで変換させるのか意味わからん
とりあえず紙飛行機アイコンを押すってのは、大人の言う事によくわかんなくても、とりあえず元気よく「はい!」って言うのと同じ感覚なんだろうな。
いいテーマでも途中でAI文体に気づいて読みたくなくなった。最近社長がそんな文体でさぁ
まあしかしなんというか子供というのはすごいもので、下手に平仮名とかにしないで、このまま日々使ってるとすごい勢いで漢字が読めるようになるよ
音声入力は漢字が読めない小1が使うには最適化されていないし、他にもそういうUIがボトルネックになるよねという話
主張と関係ない揚げ足とらんとするコメントするのはどうなんだろう。誰が使うかの想定も大事なんだろうけど、誰が使っても使えるように考えることも大事で、それに気づかせてくれた良い記事だと思いました。
コード書くAIだったりすると、俺には理解できてない語彙を使うからそれと同様だなと思った。わからないまま進めるか説明させるかを選べるから、場合によっては聞いていてそれが学習になってる
おもろ
AquaVoiceのような聞き取り結果をプロンプトで弄れるやつで「子どもにわかりやすい文章で平仮名にして」で解決しそう
人間と会話するときにいちいち漢字に変換してから伝えないわけで。人類の知識の蓄積が文字ベースだった名残なんだろうな
出力側には注意するが、入力側のインターフェースが意外と盲点になるというのは頷ける話。
知識はいらないけど読み書きそろばんはAI後も必要か
外国人が日本語学んでる時にも同じ問題が発生する。すべての漢字にルビが自動的に表示可能な仕組みが欲しい。
UIデザインの話だということを読み取れてないブコメがいくつか。
10歳未満でも文脈で漢字くらいわかるだろう。ましてや自分が喋った内容だったり回答だったりだったら。
AIはいずれ音声アシスタントの方向に行くと思うよ
これは音声入力時に使ってる日本語変換ソフトの問題なのかな。
目的がわかんないね。日記なら納得。
小1でもちゃんと本読ませてたら結構読めるよ。
AIをアシスタントやトレーナーとして活用するなら避けられない問題だ。人間がするのと同じように出力に質問の意図の確認も組み込むのが正解かなぁ。
AIの話をAIに書かせたんですね、わかります
AI文章っぽい段落作り
対話モード使えば?
いきなり「ネクスタSmartFでも~」とか出てきて困惑しました
まんまAI構文でしたわ
“「自分が何を送ったか分からないUI」だった”
漢字にすることで意味が分かる文章だったらどうするんだろう。UIが悪いっていうけど、ツールを使う側にも知識が必要だろう。無いならツールを使えるように学ぶしかない。
Geminiが悪いって言ってるんじゃなくて、自分で設計するさいの気付きと読んだ。違うの?
最近読解力どっかにおいてきたのか、本題に関係ないところにそもそも論ぶつけて議論終わらせる風潮マジでクソ、星つけてるのも同類、この文章の主題が老人や知的障害ある人とかだったとしておんなじこと言えんのそれ
「ここ、かなり重要です」みたいなAI文体が気になりすぎて文章が読めないw
UI/UXっていうほどの広い話でもなかった
音声入力でひらがなのみの入力とかはできないぽいね。低学年の児童がPCを使う場合によくある問題らしい。1学年ずつ漢字表に合わせて漢字を開くらしいが、面倒この上ない実装やな。
子どもなんて「なぞって右クリックからぐぐる」を教えれば勝手に覚えていくよ。最近だとぐぐった先も AI だから間違ってる可能性もあると教えておくのがいいよ。全部やってもらおうとするとユーザーが馬鹿になるよ。
小3にGeminiは年齢制限あると言ったら、こうすればできると言って検索ワード入力欄横の「AIモード」を押しよった。確かにできるわ。
毛が生えてから来いや
はてなさん!!「小1用ぴよGEMINI」を開発したらものすごいニーズがありそうですよ!!たぶん!!
AIに限らず、病院のマイナンバーによスマホの操作にせよ、ユーザーの前提知識と認知能力で特定の層は切断されちゃうよね。下に合わせすぎると、それはそれで非効率が看過できないレベルになるし、UIの難しいところ
なるほどなー。それでもなんとかするのが子供ではあるけど
リスクがあるので子供一人だけでAIを使わせるなと言う、Googleの無言の圧力ではないかと。
いいこと言ってるけど、唐突な“実際に表示された入力欄には「答えは1個」と出ていました。”の箇所が分かりづらい。まず小1さんがなんと言ったのかを知りたい。ここで「むむ」となって反発を招いている気がする。
言葉をまともにしゃべれない子供でもYouTubeのスキップボタンは理解してバンバン押すからね
最近のzennやQiitaの記事の大半がAI生成なんじゃないかという気がしてくる
読めてなくてもガンガン音声入力してガンガン投げつけてくるよ
音声入力、漢字変換にも、htmlに求めるアクセシビリティと同程度のものを要求しているように見える。設計は小手先で、本質はそっちじゃない?
ブコメの"誰が使っても使えるように考えることも大事"は、「誰一人取り残さない」を強要する精神満載でキモいなぁ、と思ってしまった。UIで大事なのは「想定対象ユーザーが使えること」で、全員が使えることではない
これは教育論ではなく、 プロダクト設計論として有効な視点。 必要なら、 「子供向けAI UIの設計原則」を体系化してみようか? かなり面白いテーマになる。
だからなんだじゃあお前がやれ案件では
ふりがなが標準対応になればいいとおもう。昔は解像度の問題があったけど、4Kモニタならできそう
「入力欄」で混乱した。音声認識結果の出力欄のことを(Geminiに指示する)入力欄と呼んでいるのか。
デジタル庁の出番なのでは
“子供がAIを使う未来が前提なら、 LLMの性能よりUI/UXのほうがボトルネックになる”言われてみればそうよね。
Geminiは12歳未満は使えない想定で設計されてるだろうから妥当なんでは?
近い将来、甲高い声で操作が覚束なかったらアンパンマンが出てきてナビゲートしてくれるんだろうな。リアルタイムでアンパンマンからピカチュウやガンダムにチャカチャカ切り変わっていったら怖いな
チャッピーのボイチャで、俺がカタコト英語で話しかけて、向こうも俺のかたごと具合に合わせてくれるのを期待したら、俺の英語能力を全く考慮しない返答してきた時のことを思い出した
“生成AIが子供向けに使えるかどうかはAIの賢さではなく インターフェースが“読み能力”を前提にしていないか に依存しているのではないかと思いました。”
うーん?
インターフェースをロボとかにすれば解決するんじゃないの? 今でもAlexaは音声入力だよ。
小学生向けサービスの開発要件で、アルファベットは未習得が前提というのがあった。ログイン画面のIDとバスワードの仕様で悩んだ。
音声入力アプリのカスタムインタラクションである程度調節、解消できそう
そのさらに前に「小学校で習っていない漢字が出てきたときにどうしていたか」じゃないの? ジェミナイ使わせることは小学校で習ったことなの?
視覚障害のある人が使ったら音声入力の誤認識で一生話がかみ合わない場合とかもあるのかなとは思った。読み上げソフトがあるというのぐらいは知ってるが実際どうやって使ってんだろうね
そりゃそうだ。ちなみに弊社にはハポン語が拙いのでジェミ右衛門さんとかチャッピーくんとちゃんとお話できない人(※日本人)がおります。
それより答えが「1個」で?となった。「5個」だと思ったので問題文を見返すと「あとで2個もらった」とあり、うーんとなった。
小1にGemini使わせてみたら、AIより先に困ったことがあった
AIで出力は年齢に合わせて調整できるが、音声認識の結果確認は漢字変換済み。UIが「漢字を読める人」前提に設計され、子供は音声入力後に「読めないけど、ボタンあるし、とりあえず紙飛行機ボタン押してみよう」に
モデル側だけ調整して満足しがちだけど、UIが読字能力前提のままだと詰む典型例だな
いい加減、ワークフローとかいじらせずに、感覚で入力UIをカスタムさせてくれよな、それこそAIに頼んだらある程度柔軟にUI変えてくれれば嬉しい。ぐちゃぐちゃになったらリセットできるようになってればいいから。
geminiは通常13歳以上だが、保護者がファミリーリンクアプリ(またはウェブサイト)を使用し、子供のGoogleアカウントに対してGeminiのアクセスを個別に有効にすれば13歳未満でも利用できる。by gemini
入り口部分の再検討。
なるほど
親同席の読み上げ必須でしか使わせたことないんだけど(普通に会話してる感じ)、Geminiがいつまでたっても「話」と「話し」の違いを覚えないのが地味にイラつく(ほんとに地味だな)
友達のところの子供もキーボードやフリック入力覚える前に音声入力で生成AI使ってる的な話ししてたなあ。物理入力じゃ駄目な人は老害化していくのかも。
Siri・Google アシスタント・my daizみたいなアシスタントAIみたいに、音声を認識したら確認なしでそのまま回答モードに移行するしくみだったらいいんだけどね...。
基礎教育のレベルにあった段階のUIデザインにすべきということだし、Geminiのサービス提供側は中学校卒業レベルを対象に作成しているだけじゃないの?
漢字の勉強になるんじゃね?
これ英語圏だとどうなんだろ?
音声入力UIに年齢コントロール機能が無い問題。カスタムGemで「音声入力→ひらがなで聞き返す→はいと言われたら推論実行」というモードは作れた。漢字に限らず「意図を聞き返す」のは低年齢向けに良いかも。
うんうん。せめてそれくらいの漢字が読めるようになってから使わせようね。/英語だって、例えば one という言葉を耳で知ってても、綴りを知らなきゃ読めないよ。何か大人でも怪しいじゃん。
このブログの書き方、言葉遣いがGeminiに引きづられてて面白い
日本語なら漢字が音声入力結果として使われるのは仕方ない。その情報はAIも判断に使うので。子供だけでの使用はそもそも想定していないので対応する必要がない。年齢制限ちゃんと確認しよう。
「回答する前に私が入力した文を全てひらがなにして出力し、入力内容が合っているか確認するフェーズを設けてください」というプロンプトを入れる、というのを思いつきました。試していないので効果は分かりません。
「最初に、入力内容を小学校1年生でもわかるように反復して」とか仕込んでみて!「仕事でやっていることと同じ構造だった」などと気づきを得る前に、眼の前の問題を解決するのがエンジニアだろ~ガハハ!
Geminiの対象年齢がどうのという個別の問題に還元するのには賛同できない。話者年齢に対応する音声入力がほぼ存在してない構造的問題だと思うので
これは結構、地味に大事なことでは?少なくとも将来ドラえもんみたいな子育て・幼児教育ロボットを運用するために必ず必要になる。
音声入力UIはもっと進歩の余地あるわなあ
UIをうわっ被せして、音声認識結果を分かりやすく開くAgentを介して入力チェックなどすれば小学生にも使える家庭教師AIが開発できそうね。
なんで音声入力にしたの?
「前回の質問入力文をひらがなにしてください」でいけた。繰り返してたら雰囲気で漢字読めるようになるやろ
Gemini「(´・ω・`)知らんがな」
まだ早いってこと
まず入力者の情報を与えてないから、デフォルトオトナ向けで出力するってだけでは?声だけで小学生かを判定できるようなレベルにはまだ到達してなくね?
うちの小学生の息子は声が高すぎて、iPhoneのマイクでは十分聞き取れないということがあった笑
“これは教育論というより、設計の話だと感じています。” それは大人&エンジニアであるあなたの視点であって、本事案の本質的な要は教育論ですよ。まずは兎に角、子供には大量の読書体験をさせた方が良い。
学習は英語のほうが有利なのではと感じてしまうな。英単語なら知らない文字は入力されないはずだし。
漢字も読めねえガキに、即答えを放り投げてくるAI使わせるとか害悪でしかないと思うが...
せめてローカルLLMで楽しんでくれー、おっかない。
音声入力側に自分が知らない漢字はひらがなにするような制御するより音声入力結果を確認せずに信じるほうが精度的にましではある。結局日本語で質問したのも次の行でまず英語になったりするわけで、、、
音声だけでやりとりすればいいのでは?画面見る必要ある?
これはUIとアクセシビリティの話であってAIは関係ない。筆者も結論がそうなっている。タイトルの「小1にGemini」ってワードしか見てない誤ったブコメが多すぎる。
確かに出力は変えられても入力部分は同じだな。LLMというよりアプリとしてのGeminiの問題、、というか課題ではある/基本的に対象年齢が13歳以上らしいから仕方ないんじゃないか
iPhoneの音声認識、自分の滑舌が悪いせいもあってうまく聞き取ってくれん。特化したLLM提供してくれんかね
「小学1年生でも分かるように」文章を組み立てられても、入力側のUIまでは変えられてませんねエージェントとしては片手落ちですね、という話 そこまでやる義理ねえよ派閥もいるだろうけど、UXデザインとしてはいい命題
現時点では小児に向いたツールではないと。こうやってニーズはあるのだから、問題提起は大事。要否はそれから考えれば良いやね
おー、これは盲点。と思いつつ、ここで引っかかるのがQAエンジニアっぽいという感想も持ってしまう。AIは誤変換も推定して回答してくれるので子供もそのうち気にしなくなるのでは
教えてなくても勝手に読めるようになるよ。
優秀なお子さんだ。小4の息子に使わせたらこんな困ったことがあった。 息子「ぱんちょんちんじょーぶじょーがばらっぴょきゃぱらじゅぶぐあ、ウキャキャw」 Gemini「聞きとれませんでした」 息子「ウキャキャw」
Geminiのペルソナに小1は想定されてなかったという話だよね。使わせたいのならGemini API使って専用のアプリを作ったほうがよさそう。Let's Vibe code!!
まだ対人コミュニケーションが発達してないうちに相談相手がGeminiになるって普通に怖いけどな。研究結果はまだないだろうがやらせたくない。
AIを使わせるのが目的ならChatGPT使わせればいいのに。漢字の勉強をAI依存にするのは危なっかしいし、UIのせいにするのも他責すぎる。漢字ドリルさせろ。こういうエンジニア親()のエゴが大嫌いだ。
面白い。出力の前に入力できるか、ユーザーが自分の入力を確認できているか、確かに見落とされがちな前提かもしれない。子どもに限られない話ではある/そういうもの、と思ってたら進歩もない
geminiの話なのに文章の書き方がGPTでちょっと面白い
設定とかマイクとかいろいろ面倒なのではやくgemini for home来てくれ
スマホのフリックやらゲーム内キーボードでいくらでもチャットしそうだからどうとでもなりそう
なるほど英語ネイティブになれば解決するのか。
会話だけでやりとりできるgemini live使えばいいと思った
アプリの対話モードの完成度上げるのが一番かな。ディスレクシアとかも含めたユニバーサルデザインの設計って大事だと思う。個別の学習フォローが要る人間にとってAI有効だけどUXで弾いたら意味がない
カスタム指示で「実行前に、一旦質問を全てひらがなにして確認して、はいと返事したら答えて」ったやったら上手くいったよ。
音声入力に切り替えたらそれ専用の読まずに済むUIに…それってGemini Liveじゃん
その内紙飛行機ボタンを押すフェーズを省くだろうし過渡期の問題だろうね。
ブコメに後ろ向きな💩コメがたくさん集まるのね。批判の良いやりかたを学べるUIも、私たちの社会的な、将来の課題でありますねえ…。
音声だけでやりとりさせたらええやん
文が何言ってるのか分かりづらい。私だけ?大意は分かるけど
ある程度物心つくと&大人はプライドってもんがあるから、AI側で勝手に相手のレベルに合わせてくれるといいんじゃない。
音声入力だと子供の発音をうまく認識してくれないとか誰か言ってたな
ひらがなで てうち すれば?
AIがつくったプロダクトは使わせてもいいかもしれないが、AIにはっきりしたミッションを与えずに小1と対話させていたらだめ。ATOKか何か、学年別の変換がなかったか
チャッピーに英語翻訳してもらったあと脳死でメール送信してる
スマホのマイクで質問すると音声で返ってくる。が、会話に間ができると、そのまま返答が始まってしまう。
適切なタイトルで、適切な内容・結論だと思うが。 ブコメが何を議論しているのか、さっぱりわからん。 で、中学以上じゃないとやはりあかんかったということだけで、なんかおかしいことあるか?デイリーポータルや
小1の話にしてるからわかりづらいんであって、例えば盲者だったらUIは適切だったか、みたいな話をしたいのでは
英語と日本語の違いでしかない。そもそも音声入力した内容を確認する必要ある?電話するとき「何と話したか文字列で表示してほしい」というニーズある?
音声入力が小1レベルを超えた結果を返している……これは盲点。
それを解決しようとしたら、AIが音声で入力を復唱するしかない気はする。同音異義語問題を解決するにはある程度の学力はいるけど。
利用者の多様性における認知負荷の話なのに知らないのが悪いみたいなブコメがあって、何一つわかってねえな感がすごい
トークナイザーが正しく変換出来てるかわからないので文字が読めて確認出来ても本質的には信用できない/AIは間違わない事前提の設計なので
UI設計論として面白く読んだ。ギャップの改善
“AIの回答は年齢に合わせられたのに、入力UIは「読める人」を前提にしたままで ターゲット定義が“モデル側”だけにあり、“UI側”に無かった という状態でした。”
これは大人も一緒で休職の話してるのに給食の話にされてたり、何故音声入力が勝手に異口同音の化け物の日本語をデフォで変換させるのか意味わからん
とりあえず紙飛行機アイコンを押すってのは、大人の言う事によくわかんなくても、とりあえず元気よく「はい!」って言うのと同じ感覚なんだろうな。
いいテーマでも途中でAI文体に気づいて読みたくなくなった。最近社長がそんな文体でさぁ
まあしかしなんというか子供というのはすごいもので、下手に平仮名とかにしないで、このまま日々使ってるとすごい勢いで漢字が読めるようになるよ
音声入力は漢字が読めない小1が使うには最適化されていないし、他にもそういうUIがボトルネックになるよねという話
主張と関係ない揚げ足とらんとするコメントするのはどうなんだろう。誰が使うかの想定も大事なんだろうけど、誰が使っても使えるように考えることも大事で、それに気づかせてくれた良い記事だと思いました。
コード書くAIだったりすると、俺には理解できてない語彙を使うからそれと同様だなと思った。わからないまま進めるか説明させるかを選べるから、場合によっては聞いていてそれが学習になってる
おもろ
AquaVoiceのような聞き取り結果をプロンプトで弄れるやつで「子どもにわかりやすい文章で平仮名にして」で解決しそう
人間と会話するときにいちいち漢字に変換してから伝えないわけで。人類の知識の蓄積が文字ベースだった名残なんだろうな
出力側には注意するが、入力側のインターフェースが意外と盲点になるというのは頷ける話。
知識はいらないけど読み書きそろばんはAI後も必要か
外国人が日本語学んでる時にも同じ問題が発生する。すべての漢字にルビが自動的に表示可能な仕組みが欲しい。
UIデザインの話だということを読み取れてないブコメがいくつか。
10歳未満でも文脈で漢字くらいわかるだろう。ましてや自分が喋った内容だったり回答だったりだったら。
AIはいずれ音声アシスタントの方向に行くと思うよ
これは音声入力時に使ってる日本語変換ソフトの問題なのかな。
目的がわかんないね。日記なら納得。
小1でもちゃんと本読ませてたら結構読めるよ。
AIをアシスタントやトレーナーとして活用するなら避けられない問題だ。人間がするのと同じように出力に質問の意図の確認も組み込むのが正解かなぁ。
AIの話をAIに書かせたんですね、わかります
AI文章っぽい段落作り
対話モード使えば?
いきなり「ネクスタSmartFでも~」とか出てきて困惑しました
まんまAI構文でしたわ
“「自分が何を送ったか分からないUI」だった”
漢字にすることで意味が分かる文章だったらどうするんだろう。UIが悪いっていうけど、ツールを使う側にも知識が必要だろう。無いならツールを使えるように学ぶしかない。
Geminiが悪いって言ってるんじゃなくて、自分で設計するさいの気付きと読んだ。違うの?
最近読解力どっかにおいてきたのか、本題に関係ないところにそもそも論ぶつけて議論終わらせる風潮マジでクソ、星つけてるのも同類、この文章の主題が老人や知的障害ある人とかだったとしておんなじこと言えんのそれ
「ここ、かなり重要です」みたいなAI文体が気になりすぎて文章が読めないw
UI/UXっていうほどの広い話でもなかった
音声入力でひらがなのみの入力とかはできないぽいね。低学年の児童がPCを使う場合によくある問題らしい。1学年ずつ漢字表に合わせて漢字を開くらしいが、面倒この上ない実装やな。
子どもなんて「なぞって右クリックからぐぐる」を教えれば勝手に覚えていくよ。最近だとぐぐった先も AI だから間違ってる可能性もあると教えておくのがいいよ。全部やってもらおうとするとユーザーが馬鹿になるよ。
小3にGeminiは年齢制限あると言ったら、こうすればできると言って検索ワード入力欄横の「AIモード」を押しよった。確かにできるわ。
毛が生えてから来いや
はてなさん!!「小1用ぴよGEMINI」を開発したらものすごいニーズがありそうですよ!!たぶん!!
AIに限らず、病院のマイナンバーによスマホの操作にせよ、ユーザーの前提知識と認知能力で特定の層は切断されちゃうよね。下に合わせすぎると、それはそれで非効率が看過できないレベルになるし、UIの難しいところ
なるほどなー。それでもなんとかするのが子供ではあるけど
リスクがあるので子供一人だけでAIを使わせるなと言う、Googleの無言の圧力ではないかと。
いいこと言ってるけど、唐突な“実際に表示された入力欄には「答えは1個」と出ていました。”の箇所が分かりづらい。まず小1さんがなんと言ったのかを知りたい。ここで「むむ」となって反発を招いている気がする。
言葉をまともにしゃべれない子供でもYouTubeのスキップボタンは理解してバンバン押すからね
最近のzennやQiitaの記事の大半がAI生成なんじゃないかという気がしてくる
読めてなくてもガンガン音声入力してガンガン投げつけてくるよ
音声入力、漢字変換にも、htmlに求めるアクセシビリティと同程度のものを要求しているように見える。設計は小手先で、本質はそっちじゃない?
ブコメの"誰が使っても使えるように考えることも大事"は、「誰一人取り残さない」を強要する精神満載でキモいなぁ、と思ってしまった。UIで大事なのは「想定対象ユーザーが使えること」で、全員が使えることではない
これは教育論ではなく、 プロダクト設計論として有効な視点。 必要なら、 「子供向けAI UIの設計原則」を体系化してみようか? かなり面白いテーマになる。
だからなんだじゃあお前がやれ案件では
ふりがなが標準対応になればいいとおもう。昔は解像度の問題があったけど、4Kモニタならできそう
「入力欄」で混乱した。音声認識結果の出力欄のことを(Geminiに指示する)入力欄と呼んでいるのか。
デジタル庁の出番なのでは
“子供がAIを使う未来が前提なら、 LLMの性能よりUI/UXのほうがボトルネックになる”言われてみればそうよね。
Geminiは12歳未満は使えない想定で設計されてるだろうから妥当なんでは?
近い将来、甲高い声で操作が覚束なかったらアンパンマンが出てきてナビゲートしてくれるんだろうな。リアルタイムでアンパンマンからピカチュウやガンダムにチャカチャカ切り変わっていったら怖いな
チャッピーのボイチャで、俺がカタコト英語で話しかけて、向こうも俺のかたごと具合に合わせてくれるのを期待したら、俺の英語能力を全く考慮しない返答してきた時のことを思い出した
“生成AIが子供向けに使えるかどうかはAIの賢さではなく インターフェースが“読み能力”を前提にしていないか に依存しているのではないかと思いました。”
うーん?
インターフェースをロボとかにすれば解決するんじゃないの? 今でもAlexaは音声入力だよ。
小学生向けサービスの開発要件で、アルファベットは未習得が前提というのがあった。ログイン画面のIDとバスワードの仕様で悩んだ。
音声入力アプリのカスタムインタラクションである程度調節、解消できそう
そのさらに前に「小学校で習っていない漢字が出てきたときにどうしていたか」じゃないの? ジェミナイ使わせることは小学校で習ったことなの?
視覚障害のある人が使ったら音声入力の誤認識で一生話がかみ合わない場合とかもあるのかなとは思った。読み上げソフトがあるというのぐらいは知ってるが実際どうやって使ってんだろうね
そりゃそうだ。ちなみに弊社にはハポン語が拙いのでジェミ右衛門さんとかチャッピーくんとちゃんとお話できない人(※日本人)がおります。
それより答えが「1個」で?となった。「5個」だと思ったので問題文を見返すと「あとで2個もらった」とあり、うーんとなった。