国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目次
導(dǎo)入
學(xué)習(xí)目標(biāo)
目次
pynlplをインストールする方法は?
Pypi経由
Github経由
テキスト分析にPYNLPLを使用する方法は?
用語(yǔ)共起マトリックス
周波數(shù)リスト
テキスト分布分析
pynlplを使用して実裝します
levenshtein距離
ドキュメントの類似性の測(cè)定
結(jié)論
キーテイクアウト
よくある質(zhì)問(wèn)
ホームページ テクノロジー周辺機(jī)器 AI PYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析

PYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析

Apr 20, 2025 am 09:29 AM

導(dǎo)入

テキストの統(tǒng)計(jì)分析は、テキストの前処理の重要なステップの1つです。テキストデータを深く數(shù)學(xué)的な方法で理解するのに役立ちます。このタイプの分析は、隠されたパターンを理解し、文の特定の単語(yǔ)の重みを理解するのに役立ち、全體的には良い言語(yǔ)モデルの構(gòu)築に役立ちます。 Pynlplまたは私たちがPineappleライブラリと呼ぶとき、テキスト統(tǒng)計(jì)分析に最適なPythonライブラリの1つです。このライブラリは、テキストのクリーニングや分析などの他のタスクにも役立ちます。また、テキストの前処理関數(shù)、N-Gram抽出器などを提供します。さらに、PYNLPLを使用して、単純な言語(yǔ)モデルを構(gòu)築できます。

このブログでは、Pynlplを使用してテキスト分析を?qū)g行する方法を理解できます。まず、このライブラリをシステムにインストールするすべての方法を理解します。次に、Pynlplライブラリを使用して、共起マトリックスという用語(yǔ)とその実裝を理解します。その後、最も繰り返される?yún)g語(yǔ)を識(shí)別するための周波數(shù)リストを作成する方法を?qū)Wびます。次に、テキスト配布分析を?qū)g行して、2つのテキストドキュメントまたは文字列の類似性を測(cè)定します。最後に、このライブラリを使用してLeveshteinの距離を理解して計(jì)算します。自分でフォローしてコーディングするか、このリンクの[コピー&編集]ボタンをクリックして、すべてのプログラムを?qū)g行することもできます。

學(xué)習(xí)目標(biāo)

  • 利用可能なすべての方法を使用して、このライブラリを詳細(xì)にインストールする方法を理解してください。
  • 単語(yǔ)の関係を分析するために、用語(yǔ)共起マトリックスを作成する方法を?qū)Wびます。
  • 周波數(shù)リストの生成やLevenshtein距離の計(jì)算などの一般的なタスクを?qū)g行することを?qū)Wびます。
  • テキスト配布分析の実施やドキュメントの類似性の測(cè)定など、高度なタスクを?qū)g行することを?qū)Wびます。

この記事は、データサイエンスブログソンの一部として公開(kāi)されました

目次

  • pynlplをインストールする方法は?
  • テキスト分析にPYNLPLを使用する方法は?
    • 用語(yǔ)共起マトリックス
    • 周波數(shù)リスト
    • テキスト分布分析
    • levenshtein距離
    • ドキュメントの類似性の測(cè)定
  • よくある質(zhì)問(wèn)

pynlplをインストールする方法は?

このライブラリは2つの方法でインストールできます。最初にPypiを使用し、2番目はGitHubを使用します。

Pypi経由

Pypiを使用してインストールするには、端末に以下のコマンドを貼り付けます。

 PIPインストールpynlpl

Jupyter Notebook、Kaggle Notebook、Google Colabなどのノートブックを使用している場(chǎng)合は、「!」を追加してください。上記のコマンドの前。

Github経由

GitHubを使用してこのライブラリをインストールするには、以下のコマンドを使用して公式のPynlplリポジトリをシステムにクローンします。

 git clone https://github.com/proycon/pynlpl.git

次に、「CD」を使用して端末のディレクトリをこのフォルダーに変更し、次のコマンドを貼り付けてライブラリをインストールします。

 python3 setup.pyインストール

テキスト分析にPYNLPLを使用する方法は?

次に、テキスト分析にPYNLPLを使用する方法について調(diào)べてみましょう。

用語(yǔ)共起マトリックス

用語(yǔ)共起マトリックス(TCM)は、単語(yǔ)がテキスト內(nèi)の別の特定の単語(yǔ)と共生する頻度を識(shí)別する統(tǒng)計(jì)的方法です。このマトリックスは、単語(yǔ)の関係を理解し??、有用な隠されたパターンを明らかにするのに役立ちます。これは、簡(jiǎn)潔な要約を生成するのに役立つ単語(yǔ)間の関係を提供するため、テキストの要約を作成する際に一般的に使用されます。それでは、Pynlplライブラリを使用してこのマトリックスを構(gòu)築する方法を見(jiàn)てみましょう。

まず、Pynlpl.StatisticsからFrequencyList関數(shù)をインポートします。これは、テキストで単語(yǔ)が繰り返された回?cái)?shù)を數(shù)えるために使用されます。これについては、後のセクションで詳しく説明します。さらに、コレクションモジュールからdefaultdictメソッドをインポートします。次に、Text入力とウィンドウサイズを取得し、マトリックスを返すcreate_cooccurrence_matrixという名前の関數(shù)を作成します。この関數(shù)では、最初にテキストを個(gè)々の単語(yǔ)に分割し、defaultDictを使用して共起マトリックスを作成します。テキスト內(nèi)のすべての単語(yǔ)について、指定されたウィンドウサイズ內(nèi)のコンテキストワードを特定し、共起マトリックスを更新します。最後に、マトリックスを印刷し、各用語(yǔ)の頻度を表示します。

 Pynlpl.Statisticsからfree彼らのインポートから
コレクションからImport defaultdictから

def create_cooccurrence_matrix(text、window_size = 2):
    words = text.split()
    cooccurrence_matrix = defaultdict(freookeList)
    
    私の場(chǎng)合、単語(yǔ)の列挙(単語(yǔ)):
        start = max(i -window_size、0)
        end = min(i window_size 1、len(words))
        context = words [start:i] words [i 1:end]
        
        コンテキストのContext_Wordの場(chǎng)合:
            coccurrence_matrix [word.lower()]。count(context_word.lower()))
    
    COOCCURRENCE_MATRIXを返します

Text = "こんにちはこれは分析vidhyaであり、これまでのところデータサイエンスのトピックを探求しています。分析Vidhyaは、データサイエンスと機(jī)械學(xué)習(xí)を?qū)Wぶための素晴らしいプラットフォームです?!?
#用語(yǔ)共起マトリックスの作成
cooccurrence_matrix = create_cooccurrence_matrix(テキスト)

#協(xié)同組合マトリックスという用語(yǔ)の印刷
print( "Term Co-ccurrence Matrix:")
用語(yǔ)の場(chǎng)合、COOCCURRENCE_MATRIX.ITEMS()のContext_FREQ_LIST:
    print(f "{Term}:{dict(context_freq_list)}")

出力:

PYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析

周波數(shù)リスト

周波數(shù)リストには、特定の単語(yǔ)がドキュメントまたは段落で繰り返された回?cái)?shù)が含まれます。これは、ドキュメント全體の主なテーマとコンテキストを理解するための有用な機(jī)能です。通常、言語(yǔ)學(xué)、情報(bào)検索、テキストマイニングなどのフィールドで周波數(shù)リストを使用します。たとえば、検索エンジンは周波數(shù)リストを使用してWebページをランク付けします。また、これをマーケティング戦略として使用して、製品のレビューを分析し、製品の主要な一般的な感情を理解することもできます。

次に、PYNLPLライブラリを使用してこの周波數(shù)リストを作成する方法を見(jiàn)てみましょう。まず、Pynlpl.StatisticsからFrequencyList関數(shù)をインポートします。次に、サンプルテキストを変數(shù)に持ち込み、テキスト全體を個(gè)々の単語(yǔ)に分割します。次に、この「単語(yǔ)」変數(shù)をFrequencyList関數(shù)に渡します。最後に、頻度リストのアイテムを繰り返し、各単語(yǔ)とそれに対応する頻度を印刷します。

 Pynlpl.Statisticsからfree彼らのインポートから

Text = "こんにちはこれは分析vidhyaであり、これまでのところデータサイエンスのトピックを探求しています。分析Vidhyaは、データサイエンスと機(jī)械學(xué)習(xí)を?qū)Wぶための素晴らしいプラットフォームです?!?
words = text.lower()。split()

freq_list = frequencylist(words)

言葉として、freq_list.items()のfreq:
    print(f "{word}:{freq}")

出力:

PYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析

テキスト分布分析

テキスト分布分析では、文の単語(yǔ)の頻度と確率分布を計(jì)算して、どの単語(yǔ)が文のコンテキストを構(gòu)成するかを理解します。この単語(yǔ)頻度の分布を計(jì)算することにより、エントロピー、困惑、モード、最大エントロピーなどの最も一般的な単語(yǔ)とその統(tǒng)計(jì)的特性を識(shí)別できます。これらのプロパティを1つずつ理解しましょう。

  • エントロピー:エントロピーは、分布のランダム性の尺度です。テキストデータに関しては、より高いエントロピーは、テキストの語(yǔ)彙の幅が広く、単語(yǔ)の繰り返しがあまりないことを意味します。
  • 困惑:困惑は、言語(yǔ)モデルがサンプルデータでどれだけうまく予測(cè)するかを測(cè)定することです。困惑が低い場(chǎng)合、テキストは予測(cè)可能なパターンに従います。
  • モード:私たち全員が子供の頃からこの用語(yǔ)を?qū)Wんだように、それは私たちにテキストで最も繰り返される言葉を教えてくれます。
  • 最大エントロピー:このプロパティは、テキストが持つことができる最大エントロピーを教えてくれます。つまり、分布の実際のエントロピーを比較するための參照ポイントを提供します。

また、特定の単語(yǔ)の情報(bào)コンテンツを計(jì)算することもできます。つまり、単語(yǔ)で提供される情報(bào)の量を計(jì)算できます。

pynlplを使用して実裝します

次に、pynlplを使用してこれらすべてを?qū)g裝する方法を見(jiàn)てみましょう。

Pynlpl.StatisticsモジュールとMATHモジュールから、分布と頻度リスト機(jī)能をインポートします。次に、サンプルテキストを作成し、そのテキスト內(nèi)の各単語(yǔ)の頻度をカウントします。これを行うには、上記と同じ手順に従います。次に、周波數(shù)リストを渡すことにより、分布関數(shù)のオブジェクトを作成します。次に、分布?jí)鋽?shù)のアイテムをループすることにより、各単語(yǔ)の分布を表示します。エントロピーを計(jì)算するには、分布()関數(shù)を呼び出します。

困惑を計(jì)算するには、distribution.perplexity()を呼び出します。モードの場(chǎng)合、distribution.mode()を呼び出します。最大エントロピーを計(jì)算するには、分布を呼び出します。maxentropy()。最後に、特定の単語(yǔ)の情報(bào)コンテンツを取得するために、distribution.information(word)を呼び出します。以下の例では、この関數(shù)のパラメーターとしてモードワードを渡します。

數(shù)學(xué)をインポートします
Pynlpl.Statisticsのインポート分布、頻度リストから

Text = "こんにちはこれは分析vidhyaであり、これまでのところデータサイエンスのトピックを探求しています。分析Vidhyaは、データサイエンスと機(jī)械學(xué)習(xí)を?qū)Wぶための素晴らしいプラットフォームです。」

#単語(yǔ)周波數(shù)のカウント
words = text.lower()。split()

freq_list = frequencylist(words)
word_counts = dict(freq_list.items())

#単語(yǔ)周波數(shù)から分布オブジェクトを作成します
配布=配布(word_counts)

#分布の表示
print( "Distribution:")
Wordの場(chǎng)合、distribution.items()のprob:
    print(f "{word}:{prob:.4f}")

#さまざまな統(tǒng)計(jì)
print( "\ nstatistics:")
print(f "entropy:{distribution.entropy():。4f}")
print(f "Perplexity:{distribution.perplexity():。4f}")
print(f "mode:{distribution.mode()}")
print(f "max entropy:{distribution.maxentropy():。4f}")

?!弗猢`ド」ワードの情報(bào)コンテンツ
word = distribution.mode()
information_content = distribution.information(word)
印刷(f "{word} 'の情報(bào)コンテンツ:{information_content:.4f}")

出力:

PYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析

levenshtein距離

Levenshtein距離は、2つの単語(yǔ)の違いの尺度です。 2つの単語(yǔ)が同じようになるには、単一のキャラクターの変更がいくつ必要かを計(jì)算します。単語(yǔ)の文字の挿入、削除、または置換に基づいて計(jì)算されます。この距離メトリックは通常、スペル、DNAシーケンス分析、次のセクションで実裝するテキストの類似性などの自然言語(yǔ)処理タスクのチェックに使用され、盜作検出器の構(gòu)築に使用できます。 Levenshteinの距離を計(jì)算することで、2つの単語(yǔ)間の関係を理解できます。2つの単語(yǔ)が似ているかどうかを知ることができます。 Levenshteinの距離が非常に少ない場(chǎng)合、それらの単語(yǔ)が同じ意味や文脈を持つ可能性があり、それが非常に高い場(chǎng)合、それは完全に異なる?yún)g語(yǔ)であることを意味します。

この距離を計(jì)算するために、最初にPynlpl.StatisticsモジュールからL(zhǎng)evenshtein関數(shù)をインポートします。次に、「分析」と「分析」という2つの単語(yǔ)を定義します。次に、これらの単語(yǔ)をLevenshtein関數(shù)に渡し、距離値を返します。出力でわかるように、これら2つの単語(yǔ)間のレベルシュタイン距離は2です。つまり、「分析」を「分析」に変換するには2つのシングルキャラクター編集のみが必要です。最初の編集は、「分析」の「 s 」で文字「 t 」を置き換えることであり、2番目の編集は、「分析」のインデックス8で文字「 C 」を削除することです。

 Pynlpl.StatisticsからL(zhǎng)evenshteinのインポートから

word1 = "Analytics"
word2 = "分析"
距離= levenshtein(word1、word2)
    
印刷(f "{word1} 'と' {word2} 'の間のlevenshtein距離:{距離}")

出力:

PYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析

ドキュメントの類似性の測(cè)定

多くのアプリケーションでは、2つのドキュメントまたは文がどれほど類似しているかを測(cè)定することが役立ちます。これにより、2つのドキュメントがどれほど密接に関連しているかを理解できます。この手法は、盜作チェッカー、コード差チェッカーなど、多くのアプリケーションで使用されます。 2つのドキュメントがどれほど類似しているかを分析することにより、重複したドキュメントを識(shí)別できます。これは、ユーザーAに表示される検索結(jié)果が同じクエリを入力したユーザーBに表示できるようにすることもできます。

これを?qū)g裝するために、コサインの類似性メトリックを使用します。まず、PYNLPLライブラリからの頻度リストとMathモジュールからのSQRTの2つの関數(shù)をインポートします。次に、2つの変數(shù)に2つの文字列を追加します。文字列だけの代わりに、2つのテキストドキュメントも開(kāi)くことができます。次に、これらの文字列の周波數(shù)リストを作成して、以前にインポートしたFrequencyList関數(shù)に渡すことで作成します。次に、COSINE_SIMILARITYという名前の関數(shù)を書(shū)き込み、これらの2つの周波數(shù)リストを入力として渡します。この関數(shù)では、最初に周波數(shù)リストからベクトルを作成し、次にこれらのベクトル間の角度のコサインを計(jì)算し、それらの類似性の尺度を提供します。最後に、関數(shù)を呼び出して結(jié)果を印刷します。

 Pynlpl.Statisticsからfree彼らのインポートから
Math Import Sqrtから

doc1 = "Analytics vidhyaは、データサイエンスと機(jī)械學(xué)習(xí)に関する貴重な洞察とチュートリアルを提供します?!?doc2 = "データサイエンスと機(jī)械學(xué)習(xí)に関するチュートリアルが必要な場(chǎng)合は、分析Vidhyaをチェックしてください?!?
#両方のドキュメントのFrequencyListオブジェクトを作成します
freq_list1 = frequencylist(doc1.lower()。split())
freq_list2 = frequencylist(doc2.lower()。split())

defosine_similarity(freq_list1、freq_list2):
    vec1 = {word:freq_list1 [word] for word、_ in freq_list1}
    vec2 = {word:freq_list2 [word] for word、_ in freq_list2}

    交差= set(vec1.keys())&set(vec2.keys())
    nulerator = sum(vec1 [word] * vec2 [word]交差點(diǎn)の単語(yǔ)のためのvec2 [word])

    sum1 = sum(vec1 [word] ** 2 for vec1.keys())
    sum2 = sum(vec2 [word] ** 2 for vec2.keys())
    分母= sqrt(sum1) * sqrt(sum2)

    分母ではない場(chǎng)合:
        0.0を返します
    Return Float(分子) /分母

#calculatinngコサインの類似性
類似性= cosine_similarity(freq_list1、freq_list2)
print(f "cosineの類似性:{類似性:.4f}")

出力:

PYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析

結(jié)論

Pynlplは、テキスト統(tǒng)計(jì)分析を?qū)g行できる強(qiáng)力なライブラリです。テキスト分析だけでなく、このライブラリを使用して、トークン化、ステム、Nグラム抽出、さらにはいくつかの単純な言語(yǔ)モデルの構(gòu)築などのテキストの前処理技術(shù)にも使用できます。このブログでは、まずこのライブラリをインストールするすべての方法を理解し、次にこのライブラリを使用して、共起マトリックスという用語(yǔ)を?qū)g裝し、一般的な単語(yǔ)を識(shí)別し、テキスト分布分析を?qū)g行し、レベンシュテイン距離を計(jì)算する方法を理解し、文書(shū)の類似性を計(jì)算する方法を理解するなど、さまざまなタスクを?qū)g行しました。これらの各手法は、テキストデータから貴重な洞察を抽出するために使用でき、貴重なライブラリになります。次回テキスト分析を行うときは、Pynlpl(Pineapple)ライブラリを試すことを検討してください。

キーテイクアウト

  • Pynlpl(Pineapple)ライブラリは、テキスト統(tǒng)計(jì)分析に最適なライブラリの1つです。
  • 同時(shí)共産マトリックスという用語(yǔ)は、単語(yǔ)間の関係を理解するのに役立ち、概要を構(gòu)築するのに役立ちます。
  • 周波數(shù)リストは、テキストまたはドキュメントの主なテーマを理解するのに役立ちます。
  • テキスト分布分析とlevenshtein距離は、テキストの類似性を理解するのに役立ちます。
  • また、テキスト統(tǒng)計(jì)分析だけでなく、テキストの前処理にPYNLPLライブラリを使用することもできます。

よくある質(zhì)問(wèn)

Q1。 pynlplとは何ですか?

Pineappleとしても知られるA. Pynlplは、テキスト統(tǒng)計(jì)分析とテキストの前処理に使用されるPythonライブラリです。

Q2。ドキュメントの類似性を測(cè)定することの利點(diǎn)は何ですか?

A.この手法により、盜作チェッカー、コード差チェッカーなどで2つのドキュメントまたはテキストがどれほど類似しているかを測(cè)定できます。

Q3。共起マトリックスという用語(yǔ)は何に使用されていますか?

A.共起マトリックスという用語(yǔ)を使用して、ドキュメント內(nèi)の2つの単語(yǔ)を共同頻繁に識(shí)別することができます。

Q4。 Levenshtein距離はどのように役立ちますか?

A. levenshtein距離を使用して、2つの単語(yǔ)の違いを見(jiàn)つけることができます。これは、スペルチェッカーの構(gòu)築に役立ちます。

この記事に示されているメディアは、Analytics Vidhyaが所有しておらず、著者の裁量で使用されています。

以上がPYNLPLライブラリを使用したテキスト統(tǒng)計(jì)分析の詳細(xì)內(nèi)容です。詳細(xì)については、PHP 中國(guó)語(yǔ) Web サイトの他の関連記事を參照してください。

このウェブサイトの聲明
この記事の內(nèi)容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰屬します。このサイトは、それに相當(dāng)する法的責(zé)任を負(fù)いません。盜作または侵害の疑いのあるコンテンツを見(jiàn)つけた場(chǎng)合は、admin@php.cn までご連絡(luò)ください。

ホットAIツール

Undress AI Tool

Undress AI Tool

脫衣畫(huà)像を無(wú)料で

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード寫(xiě)真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

寫(xiě)真から衣服を削除するオンライン AI ツール。

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無(wú)料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡(jiǎn)単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無(wú)料のコードエディター

SublimeText3 中國(guó)語(yǔ)版

SublimeText3 中國(guó)語(yǔ)版

中國(guó)語(yǔ)版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強(qiáng)力な PHP 統(tǒng)合開(kāi)発環(huán)境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開(kāi)発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

採(cǎi)用から利點(diǎn)まで:2025年にエンタープライズLLMを形作る10のトレンド 採(cǎi)用から利點(diǎn)まで:2025年にエンタープライズLLMを形作る10のトレンド Jun 20, 2025 am 11:13 AM

エンタープライズAIランドスケープを再構(gòu)築する10の説得力のある傾向があります。LLMSORGANIZATIONSへの財(cái)政的コミットメントは、LLMSへの投資を大幅に増加させており、72%が今年の支出が増加することを期待しています?,F(xiàn)在、ほぼ40%a

AI投資家は停滯していますか? AIベンダーと購(gòu)入、構(gòu)築、またはパートナーになる3つの戦略的なパス AI投資家は停滯していますか? AIベンダーと購(gòu)入、構(gòu)築、またはパートナーになる3つの戦略的なパス Jul 02, 2025 am 11:13 AM

投資は活況を呈していますが、資本だけでは十分ではありません。評(píng)価が上昇し、獨(dú)特の衰退があるため、AIに焦點(diǎn)を當(dāng)てたベンチャーファンドの投資家は、優(yōu)位性を獲得するために購(gòu)入、構(gòu)築、またはパートナーの重要な決定を下す必要がありますか?各オプションを評(píng)価する方法とpr

生成AIの止められない成長(zhǎng)(AI Outlookパート1) 生成AIの止められない成長(zhǎng)(AI Outlookパート1) Jun 21, 2025 am 11:11 AM

開(kāi)示:私の會(huì)社であるTirias Researchは、IBM、Nvidia、およびこの記事で述べた他の企業(yè)に相談しました。成長(zhǎng)ドライバー生成AI採(cǎi)用の急増は、最も楽観的な予測(cè)でさえ予測(cè)できるよりも劇的でした。次に、a

新しいギャラップレポート:AI文化の準(zhǔn)備が新しいマインドセットを要求します 新しいギャラップレポート:AI文化の準(zhǔn)備が新しいマインドセットを要求します Jun 19, 2025 am 11:16 AM

広範(fàn)囲にわたる採(cǎi)用と感情的な準(zhǔn)備のギャップは、人間が成長(zhǎng)しているデジタルコンパニオンの配列にどのように関與しているかについて不可欠な何かを明らかにしています。アルゴリズムが毎日のライブに織り込む共存の段階に入っています

これらのスタートアップは、企業(yè)がAI検索の概要に登場(chǎng)するのを支援しています これらのスタートアップは、企業(yè)がAI検索の概要に登場(chǎng)するのを支援しています Jun 20, 2025 am 11:16 AM

AIのおかげで、それらの日は番號(hào)が付けられています。 1つのスタッドによると、Googleのようなサイトでの検索の60%がユーザーがリンクをクリックしていないため、旅行サイトKayakやEdtech Company Cheggなどの企業(yè)の検索トラフィックが減少しています。

AGIとAIのスーパーインテリジェンスは、人間の天井の仮定の障壁に急激に衝突するでしょう AGIとAIのスーパーインテリジェンスは、人間の天井の仮定の障壁に急激に衝突するでしょう Jul 04, 2025 am 11:10 AM

それについて話しましょう。 革新的なAIブレークスルーのこの分析は、さまざまなインパクトのあるAIの複雑さの特定と説明など、最新のAIで進(jìn)行中のForbes列のカバレッジの一部です(こちらのリンクを參照)。 アギに向かっています

Ciscoは、Cisco Live U.S. 2025でそのエージェントAIジャーニーをチャートします Ciscoは、Cisco Live U.S. 2025でそのエージェントAIジャーニーをチャートします Jun 19, 2025 am 11:10 AM

私が最も重要だと思ったものと、Ciscoがその野心をさらに実現(xiàn)するための現(xiàn)在の取り組みにどのように構(gòu)築されるかを詳しく見(jiàn)てみましょう。

最初のLLMアプリケーションを構(gòu)築する:初心者のチュートリアル 最初のLLMアプリケーションを構(gòu)築する:初心者のチュートリアル Jun 24, 2025 am 10:13 AM

獨(dú)自の大手言語(yǔ)モデル(LLM)アプリケーションを構(gòu)築しようとしたことがありますか?生産性を向上させるために、人々がどのように獨(dú)自のLLMアプリケーションを作成しているのか疑問(wèn)に思ったことはありませんか? LLMアプリケーションはあらゆる面で有用であることが証明されています

See all articles