国产av日韩一区二区三区精品,成人性爱视频在线观看,国产,欧美,日韩,一区,www.成色av久久成人,2222eeee成人天堂

目錄
介紹
學(xué)習(xí)成果
目錄
簡歷數(shù)據(jù)提取的基本工具
Python
圖書館:NLTK和Spacy
Pytesseract
枕頭庫
圖像或PDF文件
pdfumber或pypdf2
從PDF文件或圖像中獲取單詞
安裝Pytesseract OCR機器。
安裝圖書館枕頭
安裝用于令牌化(或spacy)的安裝
下載Tesseract并配置路徑
圖像和PDF文本提取技術(shù)
預(yù)處理圖像以增強OCR性能
從PDF文件中獲取文字
安裝所需的庫
使用PIP
用PYDF2提取文本
從pdfplumber提取文本
標(biāo)準(zhǔn)令牌以保持一致性
文本提取的要點
結(jié)論
關(guān)鍵要點
常見問題
首頁 科技周邊 人工智能 簡歷數(shù)據(jù)提取

簡歷數(shù)據(jù)提取

Apr 08, 2025 am 09:30 AM

介紹

當(dāng)參加大型公司的工作面試或招聘雇用時,由于申請人的數(shù)量眾多,詳細審查每個簡歷通常??是不切實際的。取而代之的是,利用簡歷數(shù)據(jù)提取以關(guān)注關(guān)鍵的工作要求與候選人的簡歷如何保持如何保持一致會導(dǎo)致雇主和候選人的成功匹配。

想象一下您的個人資料標(biāo)簽檢查 - 無需擔(dān)心!現(xiàn)在很容易評估您的職位適合度并確定相對于工作要求的資格中的任何差距。

例如,如果一項職位發(fā)布在項目管理方面的重點經(jīng)驗和特定軟件的熟練程度,則候選人應(yīng)確保在其簡歷上可以清楚地看到這些技能。這種有針對性的方法有助于雇用經(jīng)理快速確定合格的申請人,并確保將候選人視為可以壯成長的職位。

通過強調(diào)最相關(guān)的資格,招聘過程變得更加有效,雙方都可以從良好的合適中受益。該公司更快地發(fā)現(xiàn)合適的人才,候選人更有可能扮演與他們的技能和經(jīng)驗相匹配的角色。

學(xué)習(xí)成果

  • 了解從簡歷中提取數(shù)據(jù)對自動化和分析的重要性。
  • 熟練使用Python庫從各種文件格式提取文本。
  • 了解如何預(yù)處理圖像以增強文本提取精度。
  • 探索用于處理案例靈敏度和提取文本中的標(biāo)記的技術(shù)。
  • 確定有效CV數(shù)據(jù)提取必不可少的關(guān)鍵工具和庫。
  • 開發(fā)從圖像和PDF文件中提取文本的實用技能。
  • 認識CV數(shù)據(jù)提取和有效解決方案所涉及的挑戰(zhàn)。

本文作為數(shù)據(jù)科學(xué)博客馬拉松的一部分發(fā)表。

目錄

  • 簡歷數(shù)據(jù)提取的基本工具
    • Python
    • 圖書館:NLTK和Spacy
    • Pytesseract
    • 枕頭庫
    • 圖像或PDF文件
    • pdfumber或pypdf2
  • 從PDF文件或圖像中獲取單詞
    • 安裝Pytesseract OCR機器。
    • 安裝圖書館枕頭
    • 安裝用于令牌化(或spacy)的安裝
    • 下載Tesseract并配置路徑
  • 圖像和PDF文本提取技術(shù)
    • 預(yù)處理圖像以增強OCR性能
    • 從PDF文件中獲取文字
    • 從pdfplumber提取文本
    • 標(biāo)準(zhǔn)令牌以保持一致性
    • 常見問題

    簡歷數(shù)據(jù)提取的基本工具

    為了有效地從簡歷和簡歷中提取數(shù)據(jù),利用正確的工具對于簡化過程并確保準(zhǔn)確性至關(guān)重要。本節(jié)將重點介紹提高簡歷數(shù)據(jù)提取效率的關(guān)鍵庫和技術(shù),從而獲得更好的分析和候選概況的見解。

    Python

    它具有可以將句子或段落分為單詞的庫或方法。在Python中,您可以使用不同的庫和方法(例如Split()(基本令牌)或自然語言工具包(NLTK)和Spacy庫來實現(xiàn)單詞令牌化,以進行更高級的代幣化。

    簡單的令牌化(句子的拆分)無法識別標(biāo)點符號和其他特殊字符。

    句子=“今天是美好的一天!”。
    句子.split()
    ['今天','is','a','美麗','day!。

    圖書館:NLTK和Spacy

    Python具有更強大的令牌化工具(自然語言工具包(NLTK)。

    在NLTK(自然語言工具包)中,Punkt Tokenizer通過使用預(yù)先訓(xùn)練的模型進行無監(jiān)督的句子分裂和單詞令牌化來積極地將文本引起。

    導(dǎo)入NLTK
    nltk.download('punkt')
    來自nltk import word_tokenize
    
    句子=“今天是美好的一天!”。
    句子.split()
    打?。ň渥樱?單詞= word_tokenize(句子)
    打?。▎卧~)
    
    [nltk_data]下載pakept punkt到
    [nltk_data] C:\ Users \ ss529 \ appdata \ roaming \ nltk_data ...
    今天是美好的一天!
    ['今天','is','a',''','day','!','。]
    [nltk_data]軟件包punkt已經(jīng)是最新的!

    Punkt的主要特征:

    • 它可以將給定的文本歸為句子和單詞,而無需任何有關(guān)語言的語法或語法的事先信息。
    • 它使用機器學(xué)習(xí)模型來檢測句子邊界,這在標(biāo)點符號不嚴(yán)格分開句子的語言中很有用。

    Spacy是高級NLP庫,可提供準(zhǔn)確的令牌化和其他語言處理功能。

    正則表達式:基于模式的自定義令牌化,但需要手動集。

    導(dǎo)入
    常規(guī)=“ [a-za-z] [\ w]?”
    re.findall(常規(guī),句子)
    ['今天','is','a','美麗','day!']

    Pytesseract

    這是一個基于Python的光學(xué)字符識別工具,用于讀取圖像中的文本。

    枕頭庫

    一個用于處理各種圖像格式的開源庫,可用于圖像操作。

    圖像或PDF文件

    簡歷可以采用PDF或圖像格式。

    pdfumber或pypdf2

    要從pdf提取文本并將其化為單詞,您可以在Python中按照以下步驟:

    • 使用PYPDF2或PDFPLUMBER等庫從PDF提取文本。
    • 使用任何令牌化方法,例如split(),nltk或spacy,將提取的文本進行象征化。

    從PDF文件或圖像中獲取單詞

    對于PDF文件,我們將需要PDF水管工和圖像OCR。

    如果您想從圖像中提取文本(而不是PDF),然后根據(jù)不同字段的預(yù)定義單詞進行令牌和評分,則可以通過以下步驟來實現(xiàn)這一目標(biāo):

    安裝Pytesseract OCR機器。

    它將從圖像中提取文本

    PIP安裝Pytesseract枕頭NLTK

    安裝圖書館枕頭

    它將有助于處理各種圖像。

    當(dāng)涉及到Python中的圖像處理和操縱(例如調(diào)整,裁剪或在不同格式之間進行轉(zhuǎn)換)時,通常會想到的開源庫是枕頭。

    讓我們看看枕頭的工作原理,要查看jupyter筆記本中的圖像,我必須使用顯示器,內(nèi)部括號內(nèi)必須存儲持有圖像的變量。

    從PIL導(dǎo)入圖像
    image = image.open('art.jfif')
    顯示(圖像)

    簡歷數(shù)據(jù)提取

    要調(diào)整圖像大小并保存圖像,使用調(diào)整大小和保存的方法,將寬度設(shè)置為400,高度設(shè)置為450。

    簡歷數(shù)據(jù)提取

    枕頭的主要特征:

    • 圖像格式 - 支持不同格式
    • 圖像操縱功能 - 可以調(diào)整大小,裁剪圖像,將顏色圖像轉(zhuǎn)換為灰色等。

    安裝用于令牌化(或spacy)的安裝

    通過安裝NLTK或SPACY(兩個有力的自然語言處理中的令牌化庫)來發(fā)現(xiàn)如何增強文本處理功能。

    下載Tesseract并配置路徑

    了解如何從GitHub下載Tesseract,并通過添加優(yōu)化OCR功能的必要路徑將其無縫集成到腳本中。

     pytesseract.pytesseract.tesseract_cmd ='c:\ program文件\ tesseract-ocr \ tesseract.exe''''
    • macOS:釀造安裝tesseract
    • Linux:通過軟件包管理器安裝(例如Sudo Apt install tesseract-ocr)。
    • PIP安裝Pytesseract枕頭

    其中有幾種工具是Google開發(fā)的開源庫Tesseract,它支持了許多語言和OCR。

    Pytesseract用于基于Python的項目,該項目是Tesseract OCR引擎的包裝紙。

    圖像和PDF文本提取技術(shù)

    在數(shù)字時代,從圖像和PDF文件中提取文本對于各種應(yīng)用程序至關(guān)重要,包括數(shù)據(jù)分析和文檔處理。本文探討了預(yù)處理圖像并利用強大的庫來增強光學(xué)特征識別(OCR)和簡化各種文件格式的文本提取文本提取的有效技術(shù)。

    預(yù)處理圖像以增強OCR性能

    預(yù)處理圖像可以按照下面提到的步驟來改善OCR性能。

    • 灰度的圖像:圖像被轉(zhuǎn)換為??灰度,以減少嘈雜的背景,并堅定地關(guān)注文本本身,并且對于具有不同照明條件的圖像很有用。
    • 來自pil Import ImageOps
    • 圖像= imageOps.grayscale(圖像)
    • 閾值:應(yīng)用二進制閾值,通過將圖像轉(zhuǎn)換為黑白格式來使文本脫穎而出。
    • 調(diào)整大小:高檔較小的圖像以獲得更好的文本識別。
    • 去除噪聲:使用過濾器(例如,高斯模糊)去除圖像中的噪聲或偽影。
    導(dǎo)入NLTK
    導(dǎo)入pytesseract
    從PIL導(dǎo)入圖像
    導(dǎo)入CV2
    
    來自nltk.tokenize導(dǎo)入word_tokenize
    
    nltk.download('punkt')
    pytesseract.pytesseract.tesseract_cmd = r'c:\ users \ ss529 \ anaconda3 \ tesseract-ocr \ tesseract.exe'
    image =輸入(“文件的名稱:”)
    imag = cv2.imread(圖像)
     
    #convert到灰度圖像
    灰色= cv2.cvtcolor(圖像,cv2.color_bgr2gray)
     
    來自nltk.tokenize導(dǎo)入word_tokenize
    def text_from_image(圖像):
        img = image.open(圖像)
        text = pytesseract.image_to_string(img)
        返回文字
    圖像='cv1.png'
    
    
    text1 = text_from_image(圖像)
    
    #將提取的文本引起
    tokens = word_tokenize(text1)
    
    打?。钆疲?/pre>
    

    簡歷數(shù)據(jù)提取

    要知道有多少個單詞符合我們將比較的要求并為每個匹配的單詞提供點數(shù)10。

     #將令牌與特定單詞進行比較,忽略重復(fù)項并計算得分
    def compare_tokens_and_score(令牌,特定_words,corce_per_match = 10):
        match_words = set(word.lower(lower(),對于word.lower()in extile_words)
        total_score = len(fields_keywords) * score_per_match
        返回total_score
    
    #具有不同技能的領(lǐng)域
    fields_keywords = {
    
        “ data_science_carrier”:{'監(jiān)督機器學(xué)習(xí)','無監(jiān)督的機器學(xué)習(xí)','data','Analysis','statistics','python'},
            
    }
    
    ?;谠擃I(lǐng)域的特定單詞得分
    def process_image_for_field(圖像,字段):
        如果字段不在字段_keywords中:
            print(f“ field'{field}'未定義?!保?        返回
    
        #從圖像中提取文字
        text = text_from_image(圖像)
        
        #將提取的文本引起
        tokens = tokenize_text(text)
        
        #將令牌與所選字段的特定單詞進行比較
        特定_words = fields_keywords [field]
        total_score = compare_tokens_and_score(令牌,特定_words)
        打?。╢“ field:{field}”)
        打?。ā翱偡郑骸?,total_score)
    
    
    圖像='cv1.png' 
    field ='data_science_carrier'

    為了處理案例敏感性,例如“數(shù)據(jù)科學(xué)”與“數(shù)據(jù)科學(xué)”,我們可以將所有令牌和關(guān)鍵字轉(zhuǎn)換為小寫。

     tokens = word_tokenize(extract_text.lower())

    通過使用NLP庫(例如NLTK或Stemming)使用Lemmatization,以減少單詞(例如,“運行”到“運行”)

    來自NLTK.STEM導(dǎo)入WordNetlemmatizer
    
    lemmatizer = wordnetlemmatizer()
    
    def normalize_tokens(令牌):
        返回[lemmatizer.lemmatize(token.lower())代幣中的令牌]
    

    從PDF文件中獲取文字

    現(xiàn)在讓我們探索從PDF文件中獲取文本所需的操作。

    安裝所需的庫

    您將需要以下庫:

    • PYPDF2
    • pdfumber
    • Spacy
    • NLTK

    使用PIP

     PIP安裝pypdf2 pdfplumber nltk spacy
    python -m spacy下載en_core_web_sm

    用PYDF2提取文本

    導(dǎo)入PYPDF2
    
    def text_from_pdf(pdf_file):
        使用open(pdf_file,'rb')作為文件:
            讀取器= pypdf2.pdfreader(file)
            文字=“”
            對于范圍(len(reader.pages))的page_num:
                page = reader.pages [page_num]
                text = page.extract_text()“ \ n”
        返回文字

    從pdfplumber提取文本

    導(dǎo)入pdfumber
    
    def text_from_pdf(pdf_file):
        使用pdfplumber.open(pdf_file)作為pdf:
            文字=“”
            對于PDF中的頁面:頁面:
                text = page.extract_text()“ \ n”
        返回文字
    pdf_file ='soniasingla-dataSciencienciencienb-bio.pdf'
    
    #從PDF提取文本
    text = text_from_pdf(pdf_file)
    
    #將提取的文本引起
    tokens = word_tokenize(text)
    
    打?。钆疲?/pre>
    

    標(biāo)準(zhǔn)令牌以保持一致性

    要處理PDF文件而不是圖像,并確保重復(fù)的單詞未接收多個分?jǐn)?shù),請修改上一個代碼。我們將從pdf文件中提取文本,將其定為圖形,并將令牌與來自不同字段的特定單詞進行比較。代碼將根據(jù)唯一匹配的單詞來計算分?jǐn)?shù)。

    導(dǎo)入pdfumber
    導(dǎo)入NLTK
    來自nltk.tokenize導(dǎo)入word_tokenize
    
    
    nltk.download('punkt')
    
    
    def extract_text_from_pdf(pdf_file):
        使用pdfplumber.open(pdf_file)作為pdf:
            文字=“”
            對于PDF中的頁面:頁面:
                text = page.extract_text()“ \ n”
        返回文字
    
    
    def tokenize_text(text):
        tokens = word_tokenize(text)
        返回令牌
    
    
    def compare_tokens_and_score(令牌,特定_words,corce_per_match = 10):
        #使用集合存儲獨特的匹配單詞以防止重復(fù)
        unique_matched_words = set(word.lower(lower()for dokens中的單詞if word.lower()在extile_words中)
        #根據(jù)唯一匹配計算總分
        total_score = len(unique_matched_words) * score_per_match
        返回unique_matched_words,total_score
    
    #定義不同字段的特定單詞集
    fields_keywords = {
    
        “ data_science_carrier”:{'監(jiān)督機器學(xué)習(xí)','無監(jiān)督的機器學(xué)習(xí)','data','Analysis','statistics','python'},
            
        #在此處添加更多字段和關(guān)鍵字
    }
    
    #步驟4:選擇字段并根據(jù)該字段的特定單詞計算分?jǐn)?shù)
    def process_pdf_for_field(pdf_file,字段):
        如果字段不在字段_keywords中:
            print(f“ field'{field}'未定義?!保?        返回
     
        text = extract_from_pdf(pdf_file)
          
        tokens = tokenize_text(text)  
        
        特定_words = fields_keywords [field]
        unique_matched_words,total_score = compare_tokens_and_score(令牌,特定_words)
          
        打?。╢“ field:{field}”)
        打?。ā拔ㄒ黄ヅ涞膯卧~:”,unique_matched_words)
        打印(“總分:”,total_score)
    
    
    pdf_file ='soniasingla-dataSciencienciencienb-bio.pdf'  
    字段='data_science'  
    process_pdf_for_field(pdf_file,fie

    由于data_science字段未定義,它將產(chǎn)生錯誤消息。

    簡歷數(shù)據(jù)提取

    當(dāng)刪除錯誤時,它可以正常工作。

    簡歷數(shù)據(jù)提取

    要正確處理案例靈敏度,并確保諸如“數(shù)據(jù)”和“數(shù)據(jù)”之類的單詞被認為是相同的單詞,同時仍然只對其進行評分(即使多次出現(xiàn)在不同的情況下),您可以將令牌和特定單詞的情況歸一化。我們可以通過在比較期間將令牌和特定單詞轉(zhuǎn)換為小寫,但仍可以保留原始套管,以確保匹配單詞的最終輸出的原始外殼。

    文本提取的要點

    • 使用pdfplumber從PDF文件中提取文本。
    • 使用OCR將圖像轉(zhuǎn)換為機器代碼。
    • 使用Pytesseract將Python包裹代碼轉(zhuǎn)換為文本。

    結(jié)論

    我們探討了從CVS提取和分析數(shù)據(jù)的關(guān)鍵過程,重點是使用Python進行自動化技術(shù)。我們學(xué)會了如何利用NLTK,Spacy,Pytesseract和枕頭等必需庫,以從包括PDF和圖像在內(nèi)的各種文件格式中提取有效的文本。通過應(yīng)用代幣化,文本標(biāo)準(zhǔn)化和評分方法,我們獲得了如何有效地使候選人的資格與工作要求相結(jié)合的見解。這種系統(tǒng)的方法不僅簡化了雇主的招聘過程,而且增強了候選人確保與他們技能相匹配的職位的機會。

    關(guān)鍵要點

    • 從簡歷中提取有效的數(shù)據(jù)對于自動化招聘過程至關(guān)重要。
    • NLTK,Spacy,Pytesseract和Pillow等工具對于文本提取和處理至關(guān)重要。
    • 正確的令牌化方法有助于準(zhǔn)確分析簡歷的含量。
    • 基于關(guān)鍵字實施評分機制可以增強候選人和工作要求之間的匹配過程。
    • 通過誘餌等技術(shù)使代幣標(biāo)準(zhǔn)化可提高文本分析的精度。

    常見問題

    Q1。如何從PDF中提取文本?

    A. pypdf2或pdfplumber庫從pdf提取文本。

    Q2。如何以圖像格式從簡歷中提取文本?

    答:如果CV處于圖像格式(掃描文檔或照片),則可以使用OCR(光學(xué)字符識別)從圖像中提取文本。 Python中最常用的工具是Pytesseract,它是Tesseract OCR的包裝紙。

    Q3。我如何處理OCR中質(zhì)量差的圖像?

    答:在將圖像喂入OCR之前提高圖像的質(zhì)量可以顯著提高文本提取精度。使用OpenCV等工具等工具,諸如灰度轉(zhuǎn)換,閾值和降噪等技術(shù)可以幫助您。

    本文所示的媒體不由Analytics Vidhya擁有,并由作者酌情使用。

  • 以上是簡歷數(shù)據(jù)提取的詳細內(nèi)容。更多信息請關(guān)注PHP中文網(wǎng)其他相關(guān)文章!

    本站聲明
    本文內(nèi)容由網(wǎng)友自發(fā)貢獻,版權(quán)歸原作者所有,本站不承擔(dān)相應(yīng)法律責(zé)任。如您發(fā)現(xiàn)有涉嫌抄襲侵權(quán)的內(nèi)容,請聯(lián)系admin@php.cn

    熱AI工具

    Undress AI Tool

    Undress AI Tool

    免費脫衣服圖片

    Undresser.AI Undress

    Undresser.AI Undress

    人工智能驅(qū)動的應(yīng)用程序,用于創(chuàng)建逼真的裸體照片

    AI Clothes Remover

    AI Clothes Remover

    用于從照片中去除衣服的在線人工智能工具。

    Clothoff.io

    Clothoff.io

    AI脫衣機

    Video Face Swap

    Video Face Swap

    使用我們完全免費的人工智能換臉工具輕松在任何視頻中換臉!

    熱工具

    記事本++7.3.1

    記事本++7.3.1

    好用且免費的代碼編輯器

    SublimeText3漢化版

    SublimeText3漢化版

    中文版,非常好用

    禪工作室 13.0.1

    禪工作室 13.0.1

    功能強大的PHP集成開發(fā)環(huán)境

    Dreamweaver CS6

    Dreamweaver CS6

    視覺化網(wǎng)頁開發(fā)工具

    SublimeText3 Mac版

    SublimeText3 Mac版

    神級代碼編輯軟件(SublimeText3)

    前7個筆記本替代品 前7個筆記本替代品 Jun 17, 2025 pm 04:32 PM

    Google的NotebookLM是由Gemini 2.5提供動力的智能AI筆記工具,它在匯總文檔方面表現(xiàn)出色。但是,它在工具使用方面仍然有局限性,例如源蓋,云依賴性和最近的“發(fā)現(xiàn)”功能

    山姆·奧特曼(Sam Altman)說,AI已經(jīng)超越了活動的視野,但是由于Agi和ASI將是一個溫柔的奇異性,因此不用擔(dān)心 山姆·奧特曼(Sam Altman)說,AI已經(jīng)超越了活動的視野,但是由于Agi和ASI將是一個溫柔的奇異性,因此不用擔(dān)心 Jun 12, 2025 am 11:26 AM

    讓我們深入研究這一點。這本部分分析AI中的開創(chuàng)性開發(fā)是我持續(xù)報道的《福布斯》中人工智能不斷發(fā)展的景觀的一部分,包括解開和闡明AI的重大進步和復(fù)雜性

    好萊塢起訴AI公司,用于復(fù)制沒有許可證的角色 好萊塢起訴AI公司,用于復(fù)制沒有許可證的角色 Jun 14, 2025 am 11:16 AM

    但是,這里的危險不僅僅是追溯損失或皇室報銷。根據(jù)AI治理和IP律師兼Ambart Law PLLC的創(chuàng)始人Yelena Ambartsumian的說法,真正的關(guān)注是前瞻性?!拔艺J為迪士尼和環(huán)球影業(yè)的MA

    Alphafold 3將建模能力擴展到更多的生物學(xué)靶標(biāo) Alphafold 3將建模能力擴展到更多的生物學(xué)靶標(biāo) Jun 11, 2025 am 11:31 AM

    查看最新版本中的更新,您會注意到Alphafold 3將其建模功能擴展到更廣泛的分子結(jié)構(gòu),例如配體(具有特定綁定屬性的離子或分子),其他離子,以及什么是Refe

    您公司的AI流利性如何? 您公司的AI流利性如何? Jun 14, 2025 am 11:24 AM

    使用AI與使用良好不同。許多創(chuàng)始人通過經(jīng)驗發(fā)現(xiàn)了這一點。從節(jié)省時間的實驗開始通常會創(chuàng)造更多的工作。團隊最終花費數(shù)小時修改AI生成的內(nèi)容或驗證輸出

    DIA瀏覽器發(fā)布 - 與AI知道您喜歡朋友的AI DIA瀏覽器發(fā)布 - 與AI知道您喜歡朋友的AI Jun 12, 2025 am 11:23 AM

    Dia 是此前短命瀏覽器 Arc 的繼任者,The Browser 公司已將 Arc 暫停開發(fā),專注于 Dia。該瀏覽器于周三以測試版形式發(fā)布,并向所有 Arc 會員開放,其他用戶則需加入等候名單。盡管 Arc 已經(jīng)大量使用人工智能——例如集成了網(wǎng)頁摘要和鏈接預(yù)覽等功能——但 Dia 被稱為“AI 瀏覽器”,其幾乎完全聚焦于生成式 AI。Dia 瀏覽器功能Dia 最引人注目的功能與 Windows 11 中備受爭議的 Recall 功能有相似之處。該瀏覽器將記住你之前的活動,使你可以要求 AI

    原型:太空公司Voyager的股票在IPO上飆升 原型:太空公司Voyager的股票在IPO上飆升 Jun 14, 2025 am 11:14 AM

    航天公司Voyager Technologies在周三的IPO期間籌集了近3.83億美元,股票的價格為31美元。該公司為政府和商業(yè)客戶提供一系列與空間相關(guān)的服務(wù),包括在IN上的活動

    從采用到優(yōu)勢:2025年塑造企業(yè)LLM的10個趨勢 從采用到優(yōu)勢:2025年塑造企業(yè)LLM的10個趨勢 Jun 20, 2025 am 11:13 AM

    以下是重塑企業(yè)AI景觀的十種引人注目的趨勢。對LLMSorganizations的財務(wù)承諾正在大大增加其在LLMS的投資,其中72%的人預(yù)計他們的支出今年會增加。目前,近40%a

    See all articles