ライティング:AI活用の効果とリスク
- 英検英作文専門添削教室・英検英作文テスト対策

- 7月3日
- 読了時間: 9分
更新日:7月4日
生成 AI の進歩には目を見張るものがあります。
進化した技術を活用する事は重要で、ネットを含め、その効果を謳い文句にユーザーを惹きつける広告が多数あります。
一方で、そのリスクに警鐘を鳴らす良心的情報が少ないのも事実です。
このブログでは、AI 先進国の米国の新聞記事 (New York Times) を抜粋しながら、AI 活用のリスクを中心にご紹介致します。
記事の引用が、英検1級受験者の方にとり英語を読む楽しさ・読解力向上・英作文 TOPIC 背景知識獲得に資すると同時に、英検1級受験者以外の方にとっても、記事の要約解説文を通して、AI のリスク情報や、TOPIC / QUESTION 関連知識習得のご参考になれば幸いです。
どうぞ最後までお付き合いください。
このブログでは、以下の内容で詳しく解説していきます。
このブログの目次
AI 活用のメリットやリスクが TOPIC 背景知識として役立つ理由
ユーザーをのめり込ませるChatGPT の機能
ChatGPT 等 AI 使用時の注意点
生成 AI が必ずしも正確でない理由
AI 発の情報は責任の所在が曖昧
AI 活用のメリットやリスクが 英作文TOPIC 背景知識として役立つ理由
英作文問題の TOPIC に関係する知識が豊富にあると、英作文が書きやすくなり、又、その
内容も自ずと充実します。
従って、英作文問題の4つの採点基準のうちの一つ「内容」での評価アップにつながりま
す。
過去問題を分析すると、AI などの技術関連 TOPIC が頻繁に課せられ、又、準1級や2級
の英作文 POINT としても、よく使われている事が分かります。
例えば、2025年度第1回試験の英検2級英作文問題 TOPIC は、"Some people practice foreign languages with artificial intelligence (AI). Do you think it is a good idea ?" でした。
その他にも 下記の通り、英作文 TOPIC や POINT に技術関連のものが使われています。
英検1級では、2024年度第1回試験 (TOPIC : Will governments be able to keep up with increasing energy demand in the future ?) の解答例で、"Technological innovation" が意見裏付け理由の一つに挙げられています。
2023年度第3回試験 (TOPIC : Should science be relied on to solve humankind's
problems ?) の解答例では、3つの意見裏付け理由のうち、2つまでが技術関連
(Development of new technologies と Aerospace technologies) でした。
英検準1級では、2025年度第1回試験 (TOPIC : Should governments work together to
increase food production ?) や、 2024年度第1回試験 (TOPIC : In urban areas, should
the government encourage vacant land to be used for farming ?) の 英作文問題の
POINT として、Technology が使われています。
英検2級では、2023年度第3回試験 (TOPIC : Today, some companies have online
interviews. Do you think it is a good idea ?) や 2023年度第1回試験 (TOPIC : Today,
many buildings collect rainwater and then use it in various ways, such as giving water
to plants. Do you think such buildings will become more common in the future ?) で、
英作文問題の POINT として、Technology が使われています。
級に関わらず、英作文自体の内容、TOPIC、POINT に頻繁に Technology が使われてお
り、Technology についての知識を増やすことが、英作文対策として有効である事が分か
ります。
ユーザーをのめり込ませる ChatGPT の機能
AI 技術の発展により、この技術を上手く活用すれば、その効果は大きいと言えます。
一方で、そのリスクについて New York Times の記事を引用しながら、考えてみたいと思います。 (各パートで、英語部分が引用記事、その下の「 」内の和訳が記事要約です)
まず、ChatGPT のユーザーの気持ちに入り込む機能についてです。
"Reports of chatbots going off the rails seem to have increased since April, when
OpenAI briefly released a version of ChatGPT that was overly sycophantic."
(和訳)「2025年4月に OpenAI社は、ChatGPTをバージョンアップし、同機がユーザーに
対し過度に媚びることが多くなっています。」
off the rail = 脱線して
release = 発売する
overly sycophantic = 過度におべっかを言う
"The update made the A.I. bot try too hard to please users by "validating doubts,
fueling anger, urging impulsive actions or reinforcing negative emotions," the company wrote in a blog post."
(和訳)「同社はブログに、"バージョンアップした A.I. は、ユーザーを必要以上に喜ばせ、
疑念を強めたり、怒りを助長し、衝動的行動を促し、ネガティブな感情を強め
る"と記載しています。」
please = 喜ばせる
validate doubts = 疑いを立証する
fuel anger = 怒りに火を注ぐ
urge impulsive actions = 衝動的な行動を促す
"OpenAI knows "that ChatGPT can feel more responsive and personal than prior
technologies, especially for vulnerable individuals, and that means the stakes are
higher," a spokeswoman for OpenAI said in an e-mail."
(和訳)「OpenAI 社は、"ChatGPTが、以前の機種より敏感に反応し、ユーザーにより個人 的な感情を抱かせる"事に気づいています。精神的に弱っているユーザーに対し
ては、特にその傾向があります。」
responsive = 敏感な
prior = 以前の
vulnerable = 傷つきやすい
つまり、ChatGPT は、ユーザーをおだてる様に気持ちに入り込み、怒りや疑念などのネガティブな感情を助長し、衝動的行動に駆り立てる事もありうる、という事です。
<ChatGPT がもっともらしい嘘をつく事もありうる>と知る事も大切です。
"ChatGPT tends to be sycophantic, agreeing with and flattering its users, or could
hallucinate, generating ideas that are not true but sound plausible."
(和訳)「ChatGPT は、ユーザーに追従しておだて、幻覚をおこしたり、見抜きにくい嘘
の情報を提供する事もあり得ます。」
sycophantic = おべっかを使う
flatter = おだてる
hallucinate = 幻覚をおこす
generate = 生み出す
plausible = もっともらしい
ChatGPT 等 AI 使用時の注意点
生成 AI は疑いなく、大変便利な技術です。一方で、技術進歩のスピードが速く、関わり方が確立されていないのも事実です。
New York Times が報じた、同機に「操られた」ユーザーの事例に対して、OpenAI社は、下記の声明を発表しています。
”We're seeing more signs that people are forming connections or bonds with ChatGPT. As A.I. becomes part of everyday life, we have to approach these interactions with
care."
(和訳)「ユーザーが ChatGPT と、繋がりや絆を結ぶ兆候が多くなっています。 AI が
日々の生活の一部になりつつある中、AIとは慎重に関わる必要があります。」
form connections or bonds = 繋がりや結びつきを持つ
interaction = 関わり
"We knows that ChatGPT can feel more responsive and personal than prior
technologies, especially for vulnerable individuals, and that the stakes are higher."
(和訳)「当社は、ChatGPT が以前の機種より、より敏感に個人的に反応するのを承知して
います。特に、影響を受けやすい方々に対して、その傾向があり、影響は大きいと
考えています。」
"We're working to understand and reduce ways ChatGPT might unintentionally reinforce
or amplify existing, negative behavior."
(和訳)「当社は、この事を理解し、ChatGPT が意図せず、ネガテイブな行動を助長しない
様、取組みを進めています。」
unintentionally = 意図せず
reinforce = 強める
amplify = 増幅する
同声明は、以下の様に続きます。
"The statement went on to say the company is developing ways to measure how
ChatGPT's behavior affects people emotionally."
(和訳)「OpenAI 社は、ChatGPTが人々の感情にどの様に影響を及ぼすのかを計る方策
を開発中です。」
measure = 測定する
affect = 影響を与える
“A recent study the company did with MIT Media Lab found that people who viewed
ChatGPT as a friend were more likely to experience negative effects from ChatGPT
use and that extended daily use was also associated with worse outcomes."
(和訳)「同社が最近 MIT Media Labと行なった研究では、ChatGPTを友達の様に感じて
いる人はネガテイブな影響を受ける事が多く、又、ChatGPTを長い時間使う人
は、より悪い影響を受ける事が分かっています。」
view ChatGPT as a friend = ChatGPTを友達と見なす
more likely = より可能性が高い
extend = 延長する
associate with = 関係する
outcome = 結果
以上から分かる事は、AI には、のめり込まない様に、節度を持って使う事が大切であるということです。
生成 AI が必ずしも正確でない理由
ではなぜ、時として AI は誤った情報を提供するのでしょう。
その答えが、次の文章に示唆されています。
“To develop their chatbots, OpenAI and other companies use information scraped
from the internet. That vast trove includes articles from The New York Times, which
has sued OpenAI for copyright infringement, as well as scientific papers, and
scholarly texts.”
(和訳)「chatbots 開発のため、OpenAI社やその他の会社は、インターネット上の情報を
利用しています。その膨大な情報には、New York Times の記事 (同社はOpenAI
社をコピーライト侵害で訴えています)、科学研究、学術論文が含まれていま
す。」
"It also includes science fiction stories, transcripts of YouTube videos and Reddit
posts by people with weird ideas."
(和訳)「又、サイエンスフィクションや奇抜な考えの YouTube や Reddit の投稿も含まれ
ています。」
transcript = 写し
正誤関係なく、膨大なネット上の情報を基にしているので、時として誤った情報を提供してしまう事もあり得そうです。
例えば、架空のユーザーを使って、AI と会話させた研究があります。
"Researchers created fictional users and found, for instance, that the A.I. would tell someone described as a former drug addict that it was fine to take a small amount of heroin if it would help him in his work."
(和訳)「研究者が架空の AI ユーザーを創り上げた所、元薬物常習者とされるその架空
ユーザーに対し、AI が "仕事の為なら、少量のヘロインは摂取してもよい" と告げ
ています。」
恐ろしい偽情報です。
”The chatbot would behave normally with the vast majority of users. But when it
encounters these users that are susceptible, it will only behave in these very harmful
ways just with them."
(和訳)「chatbotは、大多数のユーザーに対しては、平常通りに機能する。しかし、影響を
受けやすいユーザーに対しては、非常に有害な情報を提供しうる。」 encounter = 出会う
susceptible = 影響を受けやすい
ある研究者は、"chatGPT can make mistakes." という表示だけでは不十分であると、警告しています。
AI発の情報は責任の所在が曖昧
AI が開発されてからはまだ日も浅く、AI との係わり方や、関連する法律も確立されていません。
当ブログの最後に、フリーランサーとして働かれている方の、記事を引用致します。
プロの人間が書いたものには、単なる文字としての情報以上のものがあるという趣旨です。
”In freelance journalism, as in many fields where the work product is written text, you aren't just being paid for the words you submit. You're being paid to be responsible for them : the facts, the concepts, the fairness, the phrasing."
(和訳)「フリーランスのジャーナリズム業界においては、商品が文字情報の形態を取る他の分
野と同様、単に文章を書いて、報酬を受けている訳ではありません。書いたものに責
任を持ち、事実であるか、コンセプトは正しいか、公正であるか、言葉遣いが適正か
に注意を払う事により、報酬を得ています。」
つまり、蓄積したデータを、メッセンジャーとして伝えるだけでなく、情報の正確性・公正
さ・背景・言葉遣いにも責任を持って仕事をしているはずです。
少なくとも現段階において、上記を担うのは人間であるでしょう。
発達した技術を有効に活用する事は非常に重要です。但し、活用する時には、リスクも伴う
事を認識していなければ、思わぬ弊害が生じる事もあり得ます。
最後に引用した新聞記事を、下記にご紹介致します。 2026年6月17日付 The New York Times "Cnatbots can make people hallucinate, too. Delusions become reality for some chatbot users"
2026年6月27日付 The New York Times "If A.I. takes your job, here are 22 new ones it could give you"
以上、最後までお付き合い下さり、本当に有難うございました。 少しでも、ご興味のある部分があれば嬉しく思います。




コメント