Echo

Echo 关注TA

大家好,我是Echo!

Echo

Echo

关注TA

大家好,我是Echo!

  •  普罗旺斯
  • 自由职业
  • 写了309,686,406字

标签 > 标签文章:#mistral# (共有12文章)

  • Mistral 发布内容审核 API:支持中文等 11 种语言,可分类仇恨言论等 9 大类目

    Mistral 发布内容审核 API:支持中文等 11 种语言,可分类仇恨言论等 9 大类目
    IT之家11月9日消息,科技媒体WinBuzzer昨日(11月8日)发布博文,报道称MistralAI公司推出了全新的内容审核API,满足日益增长的安全在线环境需求。IT之家援引新闻稿,该内容审核API基于微调的Ministral8B模型,可以将内容分类到仇恨言论、暴力和个人数据泄露等9个类别。该内容审核API支持中文、阿拉伯语、英语、法语、德语、意大利语、日语、韩语、葡萄牙语、俄语和西班牙语这1

     56    0    2024-11-09 14:18

  • Pixtral 12B 发布:Mistral 首款多模态 AI 模型,120 亿参数、24GB 大小

    Pixtral 12B 发布:Mistral 首款多模态 AI 模型,120 亿参数、24GB 大小
    感谢IT之家网友Diixx的线索投递!IT之家9月12日消息,科技媒体TechCrunch昨日(9月11日)报道,法国AI初创公司Mistral发布Pixtral12B,是该公司首款能够同时处理图像和文本的多模态AI 大语音模型。Pixtral12B模型拥有120亿参数,大小约为24GB,参数大致对应于模型的解题能力,拥有更多参数的模型通常比参数较少的模型表现更优。Pixtral12B模

     118    0    2024-09-12 07:33

  • 1230 亿参数,Mistral 发布 Large 2 旗舰 AI 模型:支持 80 多种编程语言,增强代码生成、数学和推理能力

    1230 亿参数,Mistral 发布 Large 2 旗舰 AI 模型:支持 80 多种编程语言,增强代码生成、数学和推理能力
    IT之家7月25日消息,AI竞赛日益激烈,Meta公司昨日推出开源Llama3.1模型之后,法国人工智能初创公司Mistral也加入了竞争行列,推出了新一代旗舰模型MistralLarge2。模型简介该模型共有1230亿个参数,在代码生成、数学和推理方面比其前身功能更强大,并提供更强大的多语言支持和高级函数调用功能。MistralLarge2拥有128k的上下文窗口,支持包括中文在内的数十种语言以

     133    0    2024-07-25 06:57

  • 英伟达 Mistral AI 联袂出击!120 亿小模型王者强势登场,碾压 Llama 3 单张 4090 可跑

    英伟达 Mistral AI 联袂出击!120 亿小模型王者强势登场,碾压 Llama 3 单张 4090 可跑
    GPT-4omini头把交椅还未坐热,MistralAI联手英伟达发布12B参数小模型MistralNemo,性能赶超Gemma29B和Llama38B。小模型,成为本周的AI爆点。先是HuggingFace推出了小模型SmoLLM;OpenAI直接杀入小模型战场,发布了GPT-4omini。GPT-4omini发布同天,欧洲最强AI初创公司Mistral立马发布旗下最新最强小模型——Mistra

     123    0    2024-07-20 16:27

  • 英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用

    英伟达联合发布 Mistral-NeMo AI 模型:120 亿参数、上下文窗口 12.8 万个 token,要变革商业 AI 应用
    IT之家7月19日消息,英伟达联合法国初创公司MistralAI,今天发布了全新的Mistral-NeMoAI大语言模型,拥有120亿个参数,上下文窗口(AI模型一次能够处理的最大Token数量)为12.8万个token。VentureBeat与Midjourney合作制作Mistral-NeMoAI大模型主要面向企业环境,让企业不需要使用大量云资源的情况下,实施人工智能解决方案。由于Mistra

     154    0    2024-07-19 07:06

  • 拿下 6 亿欧元融资,“OpenAI 欧洲对手”Mistral 估值飙升至近 60 亿欧元

    拿下 6 亿欧元融资,“OpenAI 欧洲对手”Mistral 估值飙升至近 60 亿欧元
    IT之家6月12日消息,据《金融时报》北京时间今日凌晨报道,总部位于巴黎的AI初创公司MistralAI现已筹集到6亿欧元的资金,估值接近60亿欧元(IT之家备注:当前约468亿元人民币)。该公司由微软、英伟达提供支持,成立至今刚满一年,被视作OpenAI的“潜在挑战者”。自(去年)12月以来,对该公司的投资使其估值翻了三倍。Mistral的首席执行官ArthurMensch在接受采访时表示:“从

     115    0    2024-06-12 14:54

  • 最强开源编程大模型一夜易主:Codestral 精通 80 + 语言,参数量仅 22B

    最强开源编程大模型一夜易主:Codestral 精通 80 + 语言,参数量仅 22B
    开源代码大模型的王座,再次易主!来自素有“欧洲OpenAI”之称的Mistral,用22B参数量表现超越了70B的CodeLlama。模型名为Codestral,将代码的英文Code与公司名结合而成。在80多种编程语言上进行过训练后,Codestral用更少的参数实现了更高的性能,窗口长度也达到了32k,相比之前一众4k、8k的模型大幅增加。而且已经有人表示,GPT-4o和Claude3-Opus

     140    0    2024-05-30 15:08

  • 估值 60 亿美元,法国 AI 初创公司 Mistral AI 即将达成新融资协议

    估值 60 亿美元,法国 AI 初创公司 Mistral AI 即将达成新融资协议
    IT之家5月9日消息,据《华尔街日报》今日报道,法国初创公司MistralAI即将达成一项以60亿美元(当前约433.8亿元人民币)估值进行融资的协议,与半年前相比,这一估值水平几乎达到了当时的三倍。IT之家注:在去年12月的融资中,Mistral的估值为21.5亿美元。据知情人士透露,现有支持者GeneralCatalyst和LightspeedVenturePartners预计将是新一轮融资的

     139    0    2024-05-09 17:15

  • 1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载

    1760 亿参数、大小 281GB,Mixtral 8x22B 开源模型登场:可 Torrent 下载
    IT之家4月11日消息,MistralAI公司近日推出了Mixtral8x22B开源模型,共有1760亿个参数,Context长度(上下文文本)为6.5万个token,可以通过Torrent下载。MistralAI公司自成立以来一直备受外界关注,“6人团队,7页PPT,8亿融资”不断缔造传奇,而且在得到微软的投资之后更是进入发展快车道。该公司今天发布的Mixtral8x22B开源模型是个开源模型,

     162    0    2024-04-11 06:07

  • 下一个 OpenAI 来了?Mistral 超大杯模型直逼 GPT-4,93 年创始人 6 人公司被微软认领

    下一个 OpenAI 来了?Mistral 超大杯模型直逼 GPT-4,93 年创始人 6 人公司被微软认领
      新智元报道  编辑:编辑部【新智元导读】成立9个月,当初那个「6人团队,7页PPT,8亿融资」的公司不断缔造传奇。MistralAI今日发布的MistralLarge模型性能已经直逼GPT-4,同时和微软官宣合作。「下一个OpenAI」的爆相,已经越来越明显了。下一个OpenAI来了?开源社区的另一个中心MistralAI,刚刚发布了最强力的旗舰模型Mi

     186    0    2024-02-27 13:42

  • Mistral 携微软引爆“小语言模型”风潮:代码能力完胜 GPT-4,成本仅有 1/3

    Mistral 携微软引爆“小语言模型”风潮:代码能力完胜 GPT-4,成本仅有 1/3
    小模型的风潮,最近愈来愈盛,Mistral和微软分别有所动作。而网友实测发现,Mistral-medium的代码能力竟然完胜了GPT-4,而所花成本还不到三分之一。最近,「小语言模型」忽然成为热点。本周一,刚刚完成4.15亿美元融资的法国AI初创公司Mistral,发布了Mixtral8x7B模型。这个开源模型尽管尺寸不大,小到足以在一台内存100GB以上的电脑上运行,然而在某些基准测试中却能和G

     211    0    2023-12-18 00:12

  • 深度揭秘爆火 MoE:GPT-4 关键架构,成开源模型逆袭杀手锏

    深度揭秘爆火 MoE:GPT-4 关键架构,成开源模型逆袭杀手锏
    上周末,Mistral甩出的开源MoE大模型,震惊了整个开源社区。MoE究竟是什么?它又是如何提升了大语言模型的性能?Mistral上周末丢出的磁力链接震惊了开源圈子,这个7B×8E的开源MoE大模型性能已经到达了LLaMA270B的级别!而根据JimFan猜测,如果Mistral内部训练了34B×8E或者甚至100B+×8E级别的模型,那他们的能力很有可能已经无限接近GPT-4了。而在之前对于G

     217    0    2023-12-12 00:24

  • 1