個人研究のインタビューが今日から本格的にスタートした。
今日はある企業の人事担当者の方と40分ほどお話をさせていただいた。
実を言うと、インタビュー前は質問項目を選定するのにかなりてこずっていた。
聞きたいことはいろいろあるが、時間は限られている。
勤務時間をわざわざ割いていただいているので、失敗はできない。
何を優先すればよいのか、どの順に聞けばいいのか。
半構造化インタビューの方法をとる予定だったので、質問をぎっちり詰め込んでしまうと、突っこんで聞きたい内容を聞くことができなくなってしまう。
ゼミで西川先生に「何聞けばいいですかね?」みたいな質問をしてみたのだが、
「聞きたいことを聞けばいいんじゃない? 最初から快く協力してくれるところなら、もし聞きそびれたことがあっても後日対応してくれると思うよ」とのこと。
まぁ、そもそも研究計画の段階で「何を知りたいか、何を測定したいか」がはっきりしていれば、おのずと聞くことも定まるはずなので、ふわっとしたままインタビューに臨もうとしている私が悪いんだろうけど。
インタビューはおもしろい。
特に私の研究テーマがキャリア教育なのもあって、その人の生き様を聞くことができるのにはわくわくする。
ただ、インタビュー後にはもれなく”文字起こし”の作業が待っている。
昨年の連携論文の際はすでにカテゴリーが決まっていたので、そのカテゴリーに当てはまる発話だけを拾えばよかったが、今回は共通点を探る感じなので、会話全てを文字起こしせねばならない。
インタビュー自体は40分だが、それを文字起こしするにはその何倍もの時間がかかる。
ゼミの同期に「Vrew」という動画編集プログラムを教えてもらってからは、文字起こしの際はそれを使っている。
音声データを放り込むと、AIが音声データを文字データにしてくれるのだ。
ただ、話す人の活舌の良さなどで文字データに変換する際の正確性が大きく変わってくる。
今日のインタビューデータをVrewに放り込んだら、”ピカチュウ”だの”クリステル”だの”コスプレ漫画”だの、話した覚えのない単語が大量に出てきて「あーあ」とため息をつきそうになった。
あ、でもどんな言葉をAIが”ピカチュウ”と判断したのかはちょっと興味あるかも。