För BMS, buss, industri, instrumenteringskabel.

När vårfestivalen avslutas förblir spänningen kring Deepseek stark. Den senaste semestern framhöll en betydande känsla av konkurrens inom teknikindustrin, med många som diskuterade och analyserade denna "havskatt". Silicon Valley upplever en enastående känsla av kris: Förespråkare för öppen källkod uttrycker sina åsikter igen, och till och med OpenAI omvärderar om dess strategi med sluten källkod var det bästa valet. Det nya paradigmet för lägre beräkningskostnader har utlöst en kedjereaktion bland chipjättar som NVIDIA, vilket har lett till att en dagliga marknadsvärdeförluster i USA: s aktiemarknadshistoria, medan myndigheterna undersöker efterlevnaden av chips som används av Deepseek. Mitt i blandade recensioner av Deepseek utomlands, inhemskt, upplever det extraordinär tillväxt. Efter lanseringen av R1 -modellen har den tillhörande appen sett en ökning av trafiken, vilket indikerar att tillväxten i applikationssektorerna kommer att driva det övergripande AI -ekosystemet framåt. Den positiva aspekten är att Deepseek kommer att bredda tillämpningsmöjligheterna, vilket tyder på att det inte kommer att vara lika dyrt att förlita sig på chatgpt. Denna förskjutning har återspeglats i Openais senaste aktiviteter, inklusive tillhandahållandet av en resonemangsmodell som kallas O3-Mini för att frigöra användare som svar på Deepseek R1, samt efterföljande uppgraderingar som gjorde tankekedjan för O3-Mini-allmänheten. Många utländska användare uttryckte tacksamhet till Deepseek för denna utveckling, även om denna tankekedja fungerar som en sammanfattning.
Optimistiskt är det uppenbart att Deepseek förenar inhemska spelare. Med sitt fokus på att minska träningskostnaderna går olika uppströms chiptillverkare, mellanliggande molnleverantörer och många startups aktivt i ekosystemet, vilket förbättrar kostnadseffektiviteten för att använda Deepseek -modellen. Enligt Deepseeks papper kräver den fullständiga utbildningen av V3 -modellen endast 2,788 miljoner H800 GPU -timmar, och träningsprocessen är mycket stabil. MOE (blandning av experter) arkitektur är avgörande för att minska förutbildningskostnaderna med en faktor på tio jämfört med Llama 3 med 405 miljarder parametrar. För närvarande är V3 den första offentligt erkända modellen som visar så hög sparsitet i Moe. Dessutom fungerar MLA (Multi -Layers uppmärksamhet) synergistiskt, särskilt i resonemangsaspekter. "Ju sparsare moe, desto större är batchstorleken som behövs under resonemanget för att fullt ut utnyttja beräkningskraften, med storleken på KVCache som den viktigaste begränsande faktorn; MLA minskar avsevärt KVCache -storlek," konstaterade en forskare från Chuanjing -tekniken i en analys för AI -tekniköversyn. Sammantaget ligger Deepseeks framgång i kombinationen av olika tekniker, inte bara en enda. Industrins insiders berömmer Deepseek -teamets tekniska kapacitet och noterar deras excellens inom parallellutbildning och operatörsoptimering och uppnår banbrytande resultat genom att förfina varje detalj. Deepseeks open source-strategi driver ytterligare den övergripande utvecklingen av stora modeller, och det förväntas att om liknande modeller expanderar till bilder, videor och mer kommer detta att betydligt stimulera efterfrågan i branschen.
Möjligheter för tredjeparts resonemangstjänster
Uppgifter indikerar att Deepseek sedan DEEPSEEK sedan har tillkommit 22,15 miljoner aktiva användare (DAU) inom bara 21 dagar, vilket uppnår 41,6% av Chatgpts användarbas och överträffat 16,95 miljoner dagliga aktiva användare av Doubao och blev därmed den snabbast växande applikationen globalt och toppar Apple App-butiken i 157 länder/regioner. Men medan användare flockade i massor har cyberhackare obevekligt attackerat Deepseek -appen och orsakat betydande belastning på sina servrar. Branschanalytiker tror att detta delvis beror på att Deepseek distribuerar kort för utbildning medan de saknar tillräcklig beräkningskraft för resonemang. En branschinsider informerade AI -tekniköversikt, "De frekventa serverfrågorna kan enkelt lösas genom att ta ut avgifter eller finansiering för att köpa fler maskiner; i slutändan beror det på Deepseeks beslut." Detta presenterar en avvägning för att fokusera på teknik kontra produktisering. DeepSeek har till stor del förlitat sig på kvantkvantisering för självförsörjning, efter att ha fått lite extern finansiering, vilket resulterat i relativt lågt kassaflödestryck och en renare teknisk miljö. För närvarande, mot bakgrund av de ovannämnda problemen, uppmanar vissa användare Deepseek på sociala medier att höja användningsgränserna eller introducera betalda funktioner för att förbättra användarkomforten. Dessutom har utvecklare börjat använda de officiella API- eller tredjeparts-API: erna för optimering. Deepseeks öppna plattform tillkännagav emellertid nyligen, "Nuvarande serverresurser är knappa och API -tjänsteladdningar har avbrutits."
Detta öppnar utan tvekan fler möjligheter för tredjepartsleverantörer inom AI-infrastruktursektorn. Nyligen har många inhemska och internationella molngiganter lanserat Deepseeks modell API: er - Overseas Giants Microsoft och Amazon var bland de första som gick med i slutet av januari. Den inhemska ledaren, Huawei Cloud, gjorde det första draget och släppte Deepseek R1 och V3 resonemangstjänster i samarbete med kiselbaserat flöde den 1 februari. Rapporter från AI Technology Review indikerar att Silicon-baserade Flows tjänster har sett en tillströmning av användare och effektivt "kraschat" plattformen. De stora tre teknikföretagen-Bat (Baidu, Alibaba, Tencent) och ByteDance-utfärdade också lågkostnadsbidrag från och med begränsad tid från och med 3 februari, påminner om förra årets molnförsäljare Price Wars antändas av Deepseeks V2-modelllansering, där Deepseek började kallas "Price Butcher." The frantic actions of cloud vendors echo the earlier strong ties between Microsoft Azure and OpenAI, where in 2019, Microsoft made a substantial $1 billion investment in OpenAI and reaped benefits after ChatGPT's launch in 2023. However, this close relationship started to fray after Meta open-sourced Llama, allowing other vendors outside the Microsoft Azure ecosystem to compete with their large models. I det här fallet har Deepseek inte bara överträffat chatgpt när det gäller produktvärme utan har också introducerat öppna källkodsmodeller efter O1-utgåvan, liknande spänningen kring Llamas återupplivning av GPT-3.
I verkligheten positionerar molnleverantörer sig också som trafikportar för AI -applikationer, vilket innebär att fördjupning av band med utvecklare översätts till förebyggande fördelar. Rapporter indikerar att Baidu Smart Cloud hade över 15 000 kunder som använde Deepseek -modellen via Qianfan -plattformen på modellens lanseringsdag. Dessutom erbjuder flera mindre företag lösningar, inklusive kiselbaserat flöde, Luchen-teknik, Chuanjing-teknik och olika AI INFRA-leverantörer som har lanserat stöd för Deepseek-modeller. AI Technology Review har lärt sig att aktuella optimeringsmöjligheter för lokala distributioner av Deepseek främst finns inom två områden: en är optimerad för sparsitetsegenskaperna för MOE -modellen med hjälp av en blandad resonemang för att distribuera 671 miljarder parameter MOE -modell lokalt samtidigt som man använder hybrid GPU/CPU -inferens. Dessutom är optimeringen av MLA avgörande. Deepseeks två modeller står emellertid fortfarande inför vissa utmaningar när det gäller distributionsoptimering. "På grund av modellens storlek och många parametrar är optimering verkligen komplex, särskilt för lokala distributioner där att uppnå en optimal balans mellan prestanda och kostnad kommer att vara utmanande," sade en forskare från Chuanjing -tekniken. Det viktigaste hinderet ligger i att övervinna minneskapacitetsgränserna. "Vi antar en heterogen samarbetsmetod för att fullt ut utnyttja CPU: er och andra beräkningsresurser, vilket bara placerar de icke-delade delarna av den glesa MOE-matrisen på CPU/DRAM för bearbetning med hjälp av CPU-operatörer med hög prestanda, medan de täta delarna stannar kvar på GPU," förklarade han vidare. Rapporter indikerar att Chuanjings open source-ram Ktransformers främst injicerar olika strategier och operatörer i den ursprungliga transformatorns implementering genom en mall, vilket avsevärt förbättrar inferenshastigheten med hjälp av metoder som cudagraf. Deepseek har skapat möjligheter för dessa nystartade företag, eftersom tillväxtfördelar blir uppenbara; Många företag har rapporterat en märkbar kundtillväxt efter att ha lanserat Deepseek API och fått förfrågningar från tidigare kunder som letar efter optimeringar. Industrins insiders har noterat, "Tidigare var något etablerade klientgrupper ofta inlåsta i de större företagens standardiserade tjänster, tätt bundna av sina kostnadsfördelar på grund av skala. Men efter att ha slutfört utplaceringen av Deepseek-R1/V3 före vårfestivalen, fick vi plötsligt samarbetsförfrågningar från flera välkända klienter och till och med tidigare Dormant-klienter initierade kontakt med våra djupgående tjänster." För närvarande verkar det som om DeepSeek gör modellinferensprestanda alltmer kritisk, och med bredare antagande av stora modeller kommer detta att fortsätta påverka utvecklingen i AI INFRA -industrin avsevärt. Om en Deepseek-nivå-modell skulle kunna distribueras lokalt till en låg kostnad, skulle den i hög grad hjälpa regeringens och företagets digitala omvandlingsinsatser. Men utmaningar kvarstår, eftersom vissa kunder kan ha höga förväntningar på stora modellfunktioner, vilket gör det tydligare att balanseringsprestanda och kostnader blir avgörande för praktisk distribution.
För att utvärdera om Deepseek är bättre än chatgpt är det viktigt att förstå deras viktigaste skillnader, styrkor och använda fall. Här är en omfattande jämförelse:
Funktion/aspekt | Deepseek | Chatgpt |
---|---|---|
Äganderätt | Utvecklad av ett kinesiskt företag | Utvecklad av Openai |
Källmodell | Open source | Äganderätt |
Kosta | Gratis att använda; Billigare API -åtkomstalternativ | Prenumeration eller prissättning per betalning |
Anpassning | Mycket anpassningsbar, så att användare kan finjustera och bygga vidare på den | Begränsad anpassning tillgänglig |
Prestanda i specifika uppgifter | Utmärker sig inom vissa områden som dataanalys och hämtning | Mångsidig med stark prestanda inom kreativt skrivande och konversationsuppgifter |
Språkstöd | Starkt fokus på kinesiskt språk och kultur | Bred språkstöd men USA-centrerad |
Träningskostnad | Lägre träningskostnader, optimerade för effektivitet | Högre utbildningskostnader, vilket kräver betydande beräkningsresurser |
Svarvariation | Kan erbjuda olika svar, eventuellt påverkade av geopolitiskt sammanhang | Konsekventa svar baserade på träningsdata |
Målgrupp | Riktad mot utvecklare och forskare som vill ha flexibilitet | Riktad till allmänna användare som letar efter konversationsfunktioner |
Använda fall | Effektivare för kodgenerering och snabba uppgifter | Perfekt för att generera text, svara på frågor och delta i dialog |
Ett kritiskt perspektiv på "Stör NVIDIA"
För närvarande, bortsett från Huawei, anpassar flera inhemska chiptillverkare som Moore Threads, Muxi, Biran Technology och Tianxu Zhixin också till Deepseeks två modeller. En chiptillverkare sa till AI Technology Review, "Deepseeks struktur visar innovation, men det är fortfarande en LLM. Vår anpassning till Deepseek är främst fokuserad på resonemang, vilket gör teknisk implementering ganska enkel och snabb." MOE -tillvägagångssättet kräver emellertid högre krav när det gäller lagring och distribution, i kombination med att säkerställa kompatibilitet när man distribuerar med inhemska chips och presenterar många tekniska utmaningar som behöver upplösning under anpassning. "För närvarande matchar inte den inhemska beräkningskraften NVIDIA i användbarhet och stabilitet, vilket kräver original fabriksdeltagande för program för mjukvarumiljö, felsökning och grundläggande prestandaoptimering," sade en branschutövare baserad på praktisk erfarenhet. Samtidigt ", på grund av den stora parameterskalan för Deepseek R1, kräver den inhemska beräkningskraften fler noder för parallellisering. Dessutom är de inhemska hårdvaruspecifikationerna fortfarande något bakom; till exempel kan Huawei 910B för närvarande inte stödja FP8 -inferensen som introducerats av Deepseek." En av höjdpunkterna i Deepseek V3 -modellen är introduktionen av en FP8 -utbildningsram för blandad precision, som har validerats effektivt på en extremt stor modell, vilket markerar en betydande prestation. Tidigare föreslog stora spelare som Microsoft och Nvidia relaterat arbete, men tvivel kvarstår inom branschen när det gäller genomförbarhet. Det är underförstått att jämfört med INT8 är FP8: s primära fördel att kvantisering efter utbildningen kan uppnå nästan förlustfri precision samtidigt som det förbättras slutsatsen. När man jämför med FP16 kan FP8 inse upp till två gånger acceleration på Nvidias H20 och över 1,5 gånger acceleration på H100. Eftersom diskussioner kring trenden med inhemsk beräkningskraft plus inhemska modeller får fart, spekulationer om huruvida NVIDIA skulle kunna störas, och om CUDA -vallen kunde förbikopplas, blir allt vanligare. Ett obestridligt faktum är att Deepseek verkligen har orsakat en betydande minskning av NVIDIAs marknadsvärde, men denna förskjutning väcker frågor angående Nvidias avancerade beräkningsmaktintegritet. Tidigare accepterade berättelser om kapitaldriven beräkningsansamling utmanas, men det är fortfarande svårt för NVIDIA att ersättas fullt ut i träningsscenarier. Analys av Deepseeks djupa användning av CUDA visar att flexibilitet - som att använda SM för kommunikation eller direkt manipulera nätverkskort - är inte möjligt för att regelbundna GPU: er ska rymma. Branschens synpunkter betonar att Nvidias vallgrav omfattar hela CUDA -ekosystemet snarare än bara CUDA själv, och PTX (parallell trådutförande) instruktioner som Deepseek använder fortfarande ingår i CUDA -ekosystemet. "På kort sikt kan NVIDIA: s beräkningskraft inte förbikopplas - detta är särskilt tydligt i utbildning; emellertid kommer att distribuera inhemska kort för resonemanget att vara relativt enklare, så framsteg kommer sannolikt att vara snabbare. Anpassningen av inhemska kort fokuserar på slutsatser; ingen har ännu lyckats utbilda en modell av Deepseeks prestanda på inhemska kort i skala," en branschanalys som är främst fokuserad på slutsatser; ingen har ännu lyckats utbilda en modell av Deepseeks prestanda på inhemska kort i skala, "en branschanalys som är inriktad på AI -teknik. Sammantaget är omständigheterna från en inferenssynpunkt uppmuntrande för inhemska stora modellchips. Möjligheterna för inhemska chiptillverkare inom slutsatsen är tydligare på grund av utbildnings alltför höga krav, vilket hindrar inträde. Analytiker hävdar att helt enkelt utnyttja inhemska inferenskort räcker; Vid behov är det möjligt att förvärva en ytterligare maskin, medan träningsmodeller utgör unika utmaningar - att hantera ett ökat antal maskiner kan bli betungande och högre felfrekvens kan påverka träningsresultaten negativt. Träning har också specifika krav på klusterskala, medan kraven på kluster för slutsatser inte är lika stränga, vilket underlättar GPU -kraven. För närvarande överträffar inte prestandan för NVIDIA: s enda H20 -kort det för Huawei eller Cambrian; Dess styrka ligger i kluster. Baserat på den övergripande inverkan på beräkningsmarknaden, grundaren av Luchen Technology, noterade du Yang, i en intervju med AI Technology Review, "Deepseek kan tillfälligt undergräva etablering och uthyrning av ultralagande utbildningsdatorer. långvarig efterfrågan på beräkningsmaktmarknaden. " Dessutom är "Deepseeks ökade efterfrågan på resonemang och finjusteringstjänster mer kompatibelt med det inhemska beräkningslandskapet, där lokala kapaciteter är relativt svaga, vilket hjälper till att mildra avfall från lediga resurser efter kluster etablering; detta skapar livskraftiga möjligheter för tillverkare över olika nivåer i det inhemska beräkningsmässiga ekosystemet." Luchen Technology har samarbetat med Huawei Cloud för att lansera Deepseek R1 -serien Resonering API: er och molnavbildningstjänster baserade på inhemsk beräkningskraft. Du Yang uttryckte optimism om framtiden: "Deepseek ger förtroende för inhemskt producerade lösningar, vilket uppmuntrar till större entusiasm och investeringar i inhemska beräkningsmöjligheter framöver."

Slutsats
Huruvida Deepseek är "bättre" än Chatgpt beror på användarens specifika behov och mål. För uppgifter som behöver flexibilitet, låg kostnad och anpassning kan Deepseek vara överlägsen. För kreativt skrivande, allmän förfrågan och användarvänliga konversationsgränssnitt kan chatgpt ta ledningen. Varje verktyg tjänar olika syften, så valet kommer att bero på det sammanhang som de används.
Kontrollkablar
Strukturerat kabelsystem
Nätverk och data, fiberoptisk kabel, patch sladd, moduler, frontplatta
16-18, 2024 Mellanöstern i Dubai
16-18, 2024 Securika i Moskva
Maj.9, 2024 Nya produkter och teknologier Lanseringsevenemang i Shanghai
22 oktober-25: e, 2024 Säkerhetskina i Peking
19-20, 2024 Connected World KSA
Inläggstid: februari-20-2025