{
 "cells": [
  {
   "cell_type": "code",
   "execution_count": 1,
   "outputs": [],
   "source": [
    "from langchain_community.embeddings import OllamaEmbeddings\n",
    "from langchain_community.llms.ollama import Ollama"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T06:49:01.236769Z",
     "start_time": "2024-05-19T06:49:00.817678Z"
    }
   },
   "id": "21f875bc936dff2b"
  },
  {
   "cell_type": "markdown",
   "source": [
    "# 大语言模型"
   ],
   "metadata": {
    "collapsed": false
   },
   "id": "d14fff851bf7c259"
  },
  {
   "cell_type": "code",
   "execution_count": 2,
   "outputs": [],
   "source": [
    "model_name = 'qwen:7b'\n",
    "model = Ollama(base_url='http://localhost:11434', model=model_name)"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T06:49:10.768386Z",
     "start_time": "2024-05-19T06:49:10.761356Z"
    }
   },
   "id": "ba658026e95b2fac"
  },
  {
   "cell_type": "code",
   "execution_count": 3,
   "outputs": [
    {
     "name": "stderr",
     "output_type": "stream",
     "text": [
      "/Library/anaconda3/lib/python3.11/site-packages/langchain_core/_api/deprecation.py:119: LangChainDeprecationWarning: The method `BaseLLM.__call__` was deprecated in langchain-core 0.1.7 and will be removed in 0.3.0. Use invoke instead.\n",
      "  warn_deprecated(\n"
     ]
    },
    {
     "data": {
      "text/plain": "'我是阿里云研发的大规模语言模型，我叫通义千问。'"
     },
     "execution_count": 3,
     "metadata": {},
     "output_type": "execute_result"
    }
   ],
   "source": [
    "model('你是谁')"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T06:49:18.511086Z",
     "start_time": "2024-05-19T06:49:15.984693Z"
    }
   },
   "id": "1a7fe5669897daa6"
  },
  {
   "cell_type": "markdown",
   "source": [
    "# 向量模型"
   ],
   "metadata": {
    "collapsed": false
   },
   "id": "e6f9f71d874b0c7c"
  },
  {
   "cell_type": "code",
   "execution_count": 4,
   "outputs": [],
   "source": [
    "embedding_model = OllamaEmbeddings(\n",
    "    base_url='http://localhost:11434',\n",
    "    # model='nomic-embed-text'\n",
    "    model='znbang/bge:large-zh-v1.5-q8_0'\n",
    ")"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T06:49:23.301726Z",
     "start_time": "2024-05-19T06:49:23.296225Z"
    }
   },
   "id": "42a4f97cedc6178b"
  },
  {
   "cell_type": "code",
   "execution_count": 6,
   "outputs": [
    {
     "name": "stdout",
     "output_type": "stream",
     "text": [
      "[0.8701383471488953, 0.926769495010376, 1.8614341020584106, -0.22226035594940186, 0.25054237246513367, 0.8518195152282715, 0.23407258093357086, -0.533228874206543, 1.5211201906204224, 0.0691080242395401, -0.21018676459789276, 0.48451653122901917, -0.47365328669548035, 0.15317724645137787, 0.5749346613883972, 1.3294181823730469, -0.7902407050132751, 0.1202680915594101, -0.6426805257797241, -0.3812369704246521, 0.7347756624221802, 0.17349393665790558, 0.22246146202087402, 0.6172364354133606, -0.24490442872047424, 0.17610248923301697, 0.038822341710329056, -1.9460346698760986, 0.290544331073761, -1.4816135168075562, -1.3555136919021606, 1.1005256175994873, 0.5647106170654297, 0.9758239388465881, 0.16498379409313202, 0.04524686932563782, -0.8840872049331665, 0.7241637706756592, -0.504642128944397, 0.9662455320358276, 0.216205894947052, -0.018024222925305367, -0.21602411568164825, -1.0571461915969849, 0.36134734749794006, 0.11533520370721817, 0.7006736397743225, -0.96708083152771, 0.47788554430007935, 0.30513083934783936, 0.2804192006587982, -0.16704924404621124, -0.4798702001571655, 0.34143394231796265, -0.6834470629692078, 1.1358686685562134, 0.41645920276641846, 0.7587289214134216, 0.7367627024650574, -0.8074032068252563, -1.1706074476242065, -1.574100375175476, 0.977864682674408, -0.8336395621299744, 0.5053462982177734, -0.12829600274562836, -0.3529326319694519, -1.4982026815414429, -0.3024105429649353, 1.2162541151046753, 1.072618007659912, -0.9836024045944214, 1.3521959781646729, 1.2381829023361206, 1.4578990936279297, -0.1836034506559372, -0.7579981684684753, 0.5145520567893982, 0.9767425656318665, -0.433027058839798, 0.16589641571044922, 0.18702007830142975, -1.087450385093689, 0.6945317387580872, 0.8756141066551208, 0.468447744846344, -0.8010708689689636, 4.474053859710693, 0.8722968697547913, -0.2606476843357086, -0.07141837477684021, 1.0646804571151733, -0.18317535519599915, 0.10590513795614243, -1.319623351097107, -0.5494377017021179, -0.5648526549339294, 0.4603698253631592, -0.10401006788015366, 0.40483343601226807, 0.08506562560796738, -0.3122527599334717, -0.9870315790176392, -1.1444631814956665, -0.7304099798202515, -0.27175086736679077, -0.6577762961387634, -1.6271158456802368, -0.8079758882522583, -0.3076041638851166, 0.11897707730531693, -1.0328750610351562, 0.681255578994751, 0.12672796845436096, 0.7890087366104126, 0.14907625317573547, 0.6853660345077515, 0.4642646014690399, 0.1459101438522339, -0.029287897050380707, -0.4513201117515564, 0.45204028487205505, -1.081985592842102, -1.198185682296753, -0.9618352651596069, 0.7854804396629333, 0.025157470256090164, -0.27015039324760437, 0.8009117841720581, -0.01309949066489935, 0.38711607456207275, -1.1582015752792358, 0.14255143702030182, 1.4131630659103394, -0.6615268588066101, 0.5004178285598755, -1.0598013401031494, 0.7082024812698364, -0.38167500495910645, 0.502289354801178, 0.15822984278202057, -0.32300668954849243, 1.0792467594146729, 0.25174471735954285, 0.09660547971725464, 0.15396058559417725, -1.3222730159759521, 0.12702950835227966, 0.7836058735847473, -1.1832338571548462, 0.8376298546791077, -0.4059598743915558, -0.07306768000125885, -0.35790902376174927, 0.6055700778961182, -0.005507413297891617, 0.1420702189207077, -1.309554100036621, 0.33354416489601135, -0.012099595740437508, 0.8437072038650513, 0.7511438727378845, 1.1123554706573486, 0.5436550378799438, -1.0745855569839478, 0.062175601720809937, 0.9281117916107178, -1.4305113554000854, 0.7331584095954895, -0.197288379073143, 0.11847557127475739, -0.6288316249847412, -1.0786374807357788, 0.6350534558296204, 0.38195013999938965, -0.598247766494751, -0.7311544418334961, 0.7317324280738831, -0.21025368571281433, -0.46577122807502747, -0.1780841201543808, -0.7065584063529968, 0.10104624181985855, -0.9608058333396912, -1.0640701055526733, 0.3299567997455597, 0.945162832736969, -0.9090346097946167, -0.1636294275522232, -0.4070788323879242, -0.9405954480171204, 0.19362641870975494, 0.45271074771881104, 1.333521842956543, -0.28603991866111755, -0.42359068989753723, 0.34220191836357117, -1.444050908088684, 0.0743076503276825, 0.29677656292915344, 0.30148011445999146, -0.8375312685966492, -0.5871468186378479, -0.6492464542388916, 0.5657081007957458, 0.6143016815185547, -0.5684076547622681, 0.40077629685401917, 0.21202139556407928, 1.0587538480758667, 0.16934192180633545, 0.384338915348053, 1.6382193565368652, 0.09409062564373016, 0.44796615839004517, 0.8174384236335754, -0.35780566930770874, 1.17380690574646, -1.1035782098770142, 0.13488450646400452, -0.1632107049226761, 1.3011188507080078, -0.5827274918556213, 0.07546897232532501, 0.2799273729324341, -0.6827471852302551, -1.7098251581192017, 0.6920662522315979, -1.2897306680679321, 0.40612325072288513, 0.32034286856651306, -0.49483758211135864, 0.5664037466049194, 0.9770748019218445, -0.5930072665214539, 0.12290039658546448, -1.528957724571228, -0.21561004221439362, -0.772604763507843, 0.3733958303928375, -1.0373011827468872, -0.33892500400543213, -0.9566090106964111, 0.15973630547523499, 0.0957365483045578, -1.3422240018844604, -0.6559910178184509, 0.3459225594997406, 1.126800298690796, -1.5804449319839478, -1.2565592527389526, 0.6968293190002441, -0.7280325889587402, -0.9630773067474365, 0.17881174385547638, 0.37401118874549866, -0.5161468982696533, 0.26688164472579956, -0.06056424230337143, 0.008889001794159412, -0.28075358271598816, 1.1483362913131714, -0.7831436395645142, 1.0911797285079956, -0.6713656187057495, 0.15077495574951172, 0.33789509534835815, -0.970504641532898, -0.31426146626472473, 0.36929813027381897, -0.37478718161582947, 0.7918992638587952, -0.42591387033462524, -1.3017683029174805, -0.4566343128681183, -0.5497563481330872, -0.8420578241348267, 0.98231440782547, -0.2849028706550598, 0.8002166748046875, 0.9454222917556763, -0.7842952609062195, 0.24571287631988525, -0.4038345217704773, -0.30455631017684937, 0.5757595300674438, -0.4135565459728241, 0.31718212366104126, -0.3000469505786896, -0.19286487996578217, -0.08458387851715088, 0.3703804910182953, -0.4506323039531708, 0.12523463368415833, -1.3130861520767212, -0.5153819918632507, -0.28294825553894043, 0.5104050040245056, 0.21833455562591553, 1.7869994640350342, 0.11850214749574661, 0.32970377802848816, 1.1652352809906006, -1.297406554222107, 0.2475031316280365, 1.0354329347610474, 0.5466731190681458, 0.5697751641273499, 0.5985966920852661, 0.14621242880821228, -0.7897869944572449, -0.3755224347114563, 0.2979651093482971, -1.4093379974365234, 0.318943053483963, -0.9259839057922363, 0.3599076271057129, -0.3725118637084961, -0.6661809682846069, 1.9071447849273682, -0.47660326957702637, -0.15160810947418213, -1.130141019821167, 0.4518412947654724, -0.4781971573829651, -0.23348727822303772, -0.289652019739151, -0.6364811062812805, 0.22599837183952332, -0.42232346534729004, 0.40911805629730225, -0.5048887729644775, -0.3450004756450653, 0.7077853083610535, 0.6113027930259705, 0.45281723141670227, -0.7374426126480103, -1.9534245729446411, -0.26841259002685547, 1.3196501731872559, -0.3733663260936737, 1.3869585990905762, -0.154276043176651, -0.27732008695602417, -0.010020419955253601, -0.17702385783195496, -0.07506635785102844, -0.26013892889022827, 0.6901765465736389, -1.5356979370117188, -0.08442409336566925, 0.6552628874778748, 0.124455526471138, 0.1476682871580124, 0.27646878361701965, 0.2865854501724243, -0.35037603974342346, -0.4231462776660919, -0.8278672099113464, 0.9621601700782776, 0.4714246392250061, 0.954131543636322, -0.8496071696281433, 0.44029301404953003, 0.43381476402282715, -0.9942964315414429, 0.551914632320404, 0.2606220245361328, 0.06787898391485214, 0.09948907792568207, 0.9635258913040161, 1.1955385208129883, -0.026187237352132797, -0.6661069393157959, -0.7232062816619873, 0.44626325368881226, -0.9368822574615479, -0.028399692848324776, -0.29950061440467834, 0.5616880059242249, -0.769530177116394, -0.8551682829856873, 1.1988598108291626, 0.16770179569721222, -0.13822783529758453, 0.8477907776832581, 0.24189254641532898, -0.10212276875972748, -0.7309868931770325, 1.0094012022018433, 1.3168944120407104, -0.12273896485567093, 0.42854681611061096, -0.4211258888244629, -0.1678716540336609, 0.36028435826301575, 0.23515087366104126, -0.38530445098876953, -1.5230984687805176, -0.17151623964309692, 0.9327479600906372, 0.615111768245697, 1.3449562788009644, 0.2544115483760834, 0.8533196449279785, -0.625271737575531, -0.4246121048927307, 0.20468847453594208, 0.8578024506568909, 0.5046139359474182, -0.4792361557483673, -1.2493116855621338, 0.22121697664260864, -1.1065853834152222, 0.14171172678470612, 0.49220994114875793, -0.5286999940872192, -0.7902987003326416, 0.18723222613334656, -0.12288480997085571, -0.28988903760910034, 0.20008441805839539, -0.5313575863838196, -0.742370069026947, -0.40905267000198364, 0.19034767150878906, -1.0946098566055298, -0.6352478265762329, 1.1913621425628662, -1.700911521911621, -0.9655858278274536, -0.16961057484149933, -0.9440333247184753, 2.1264522075653076, 0.6708241105079651, -1.0890671014785767, -0.6688682436943054, -0.9688279628753662, 0.14072997868061066, 1.1768242120742798, -0.3032233417034149, -2.7203924655914307, 0.5405024290084839, 0.8532246947288513, -0.3449150323867798, 0.8072693347930908, -0.6282544136047363, -0.20811627805233002, 0.48359915614128113, -0.37002015113830566, -0.9963303804397583, -1.3866965770721436, 0.36829474568367004, -0.7596713304519653, -2.619203567504883, 1.034192442893982, -0.06687505543231964, -0.23316922783851624, -0.18717645108699799, 0.45332473516464233, 1.0577431917190552, -0.1401911824941635, -0.23837871849536896, 0.878582775592804, -1.2040969133377075, 1.623990535736084, -2.6573190689086914, -0.7915651202201843, 0.10248357802629471, 0.6065477132797241, 0.9586528539657593, -1.0416901111602783, -0.8451918959617615, 0.26309654116630554, -0.26903900504112244, 0.7648043632507324, -0.15195265412330627, 0.31124430894851685, 1.1311358213424683, 1.0945005416870117, -0.8856218457221985, 0.4068007171154022, -0.0007284246385097504, 1.4096834659576416, -0.7810059189796448, 0.4469445049762726, 1.2386212348937988, -0.0352170467376709, 1.0341594219207764, -0.2616010904312134, 0.8915435671806335, -0.05488035827875137, -1.3136200904846191, 0.7750477194786072, -0.09002417325973511, 0.14108696579933167, -1.5224454402923584, 1.584650993347168, -0.8158610463142395, 0.19308312237262726, -0.3787953853607178, 0.4358784854412079, -0.875945508480072, 0.04299524053931236, -0.7886376976966858, 0.8050709366798401, 0.08243709802627563, 0.43176504969596863, -0.11824950575828552, 0.8407576084136963, 0.17233188450336456, -0.9436329007148743, -0.5284305214881897, -1.3510849475860596, -0.23953023552894592, -0.3015640079975128, 0.8336421251296997, -0.5585236549377441, 0.24080230295658112, 0.7199212908744812, -0.6758764386177063, -0.7973540425300598, 0.029931887984275818, -0.7605917453765869, 0.20083841681480408, -0.7041124701499939, 0.2203243523836136, 1.3564741611480713, -0.6464614868164062, 0.46645495295524597, 0.6006349921226501, -0.5984010696411133, -0.16101281344890594, -0.7722795605659485, 0.134367898106575, -0.15377546846866608, 0.6804103851318359, 0.2887652516365051, 0.31279799342155457, 0.4945739209651947, 1.2046911716461182, 0.08187036216259003, 0.28115546703338623, 0.3454257845878601, 0.7137178778648376, 0.4088473320007324, -0.23115810751914978, -0.9505977630615234, 0.3773007392883301, -0.6130716800689697, -0.23997831344604492, -0.48106908798217773, -0.2663823664188385, 0.5577101111412048, -0.5477627515792847, 0.7293035387992859, 0.9008141160011292, 0.07003898918628693, -0.10871528089046478, -0.47729986906051636, 0.8375750184059143, -0.02382199838757515, -0.5563364028930664, -0.3607368767261505, 0.5681977868080139, 0.6661044955253601, -0.09593821316957474, -0.554032027721405, 0.3941926956176758, 0.4041113257408142, -0.44522565603256226, 0.40770450234413147, 0.10735511779785156, -0.4716048240661621, -0.109027199447155, 0.14710141718387604, 0.16418400406837463, 0.02160949632525444, -0.38414546847343445, -1.324417233467102, 0.5716927647590637, -0.149447962641716, 0.1941852867603302, -0.7623147964477539, 0.08666086941957474, -0.669312596321106, -0.13158181309700012, 0.5601918697357178, -0.6302846670150757, 0.1795545369386673, 0.09755987673997879, -0.6759821772575378, -0.37235227227211, 1.2689824104309082, 0.14683891832828522, 1.3844330310821533, -0.374534010887146, -0.2792467474937439, -1.3951828479766846, -0.6125190258026123, 0.05341485142707825, -0.2719667851924896, -0.5632048845291138, 0.2389293909072876, 0.7961982488632202, 0.5559994578361511, -0.39651912450790405, 0.9830703735351562, 0.44474971294403076, 0.8211269974708557, 1.1108595132827759, 1.4848628044128418, -0.11161507666110992, 0.21912772953510284, 1.055299162864685, 0.2944003939628601, -0.9821478128433228, 0.5532724857330322, -0.5887491106987, 0.1065845638513565, 0.13941103219985962, 0.4644147753715515, 1.1087311506271362, -1.6128216981887817, -0.011315010488033295, 0.711525022983551, 1.383191704750061, -0.22586685419082642, 0.39878925681114197, 0.34178978204727173, -0.4826047420501709, 0.7290732860565186, -0.14025142788887024, 0.7079256176948547, 0.22958560287952423, -0.08892077207565308, 0.4211748242378235, -1.0903328657150269, 0.3544054627418518, 0.21138004958629608, -0.7049090266227722, 0.45312628149986267, -1.7159570455551147, -0.5453423857688904, -1.1876513957977295, -1.0552046298980713, -0.5329098105430603, 0.39833423495292664, 1.0077089071273804, -0.2629082500934601, 0.5830686688423157, 1.225830078125, -0.24078862369060516, -0.9516617655754089, -0.3323568105697632, -0.24421435594558716, -0.9249529242515564, -1.0030853748321533, -1.4749213457107544, 1.6335729360580444, -0.7311894297599792, -0.9842007160186768, 0.5656252503395081, -0.8529012799263, -0.6240149736404419, -0.021342545747756958, 1.6367825269699097, 0.41424477100372314, -0.9346204996109009, 0.5217941403388977, 1.3865435123443604, 0.45003753900527954, 0.05747959017753601, -0.06653986871242523, -0.26531246304512024, 1.2357401847839355, 1.033212661743164, -0.8307211399078369, 0.8835914731025696, 0.44496649503707886, 0.7502058148384094, -0.02549206279218197, -0.3264455497264862, -0.4597494900226593, 0.5964676737785339, 0.29387998580932617, 1.0281431674957275, 1.0465295314788818, 0.23642434179782867, 0.7123239040374756, 1.2819024324417114, 0.24182802438735962, -0.11019706726074219, 1.3487732410430908, 0.3638497292995453, 0.3276904225349426, -0.7644301056861877, -1.2591753005981445, 0.3726955056190491, 0.29069164395332336, 0.41864070296287537, 0.09273114055395126, -0.7928699851036072, -0.5996417999267578, 0.1753726303577423, -0.8356418013572693, 0.8551070094108582, 0.4906943142414093, -0.20488665997982025, -0.6223978996276855, 1.7601546049118042, -1.0585910081863403, -0.9869526028633118, -0.950900673866272, -1.0763026475906372, 0.22252550721168518, -0.06597115099430084, 0.07005272060632706, -0.7053883075714111, -0.6807218194007874, -0.4445214867591858, -0.5770229697227478, -0.6298822164535522, -0.9233173131942749, 1.119379997253418, -0.04287849739193916, -0.2369690239429474, 0.15370430052280426, -0.5143539905548096, 0.13175068795681, 0.18479318916797638, -0.9238030314445496, 0.46486470103263855, -0.28216856718063354, 0.25230956077575684, -0.43486806750297546, 0.6253361701965332, -1.2785849571228027, 1.137017846107483, 0.6107084155082703, -0.36560070514678955, 0.637212872505188, 0.671140730381012, 0.5729357600212097, 0.4326566457748413, -0.0039004571735858917, 2.5436713695526123, -0.8741284608840942, -1.0788661241531372, 0.18194864690303802, 0.2581288516521454, 0.14783212542533875, -0.4124608337879181, -0.3913663923740387, -0.49911797046661377, -0.2467067390680313, -0.4163139760494232, -0.1170598715543747, 0.1786082684993744, -0.29294559359550476, -0.4559847414493561, -0.5884010195732117, 0.0439017228782177, -0.059008918702602386, -0.48786044120788574, 1.2166168689727783, 0.2589625418186188, -0.41582706570625305, -0.8010823726654053, 1.1646357774734497, -1.1958175897598267, 1.457687258720398, -0.26091110706329346, -0.6104697585105896, -0.317219614982605, 0.47053518891334534, 1.1254551410675049, 0.2562875747680664, 1.625745415687561, -0.1703074872493744, -0.48953840136528015, -0.37290439009666443, 0.17603440582752228, -0.6476518511772156, -0.7411162257194519, -1.4722696542739868, -0.7113031148910522, 0.44577881693840027, -1.8713157176971436, 1.343125343322754, -0.10114766657352448, 0.825764000415802, -1.387571096420288, 1.3340336084365845, -1.130530595779419, 0.4058712422847748, -0.2852683663368225, 1.5111438035964966, 0.8935149312019348, 0.8995609879493713, -0.122323177754879, 1.102583885192871, -0.7368425130844116, 0.36846038699150085, 0.41692960262298584, 0.5982887148857117, 0.3555457592010498, -0.19193080067634583, -0.20297224819660187, -0.42263704538345337, 1.377072811126709, -1.1670489311218262, 0.33148258924484253, -0.9344311356544495, 1.1331087350845337, -0.45285946130752563, -0.02620444819331169, 0.4943392276763916, 1.2139395475387573, 0.5810470581054688, -1.1915236711502075, -0.9200626611709595, -1.1816866397857666, 1.9045443534851074, -1.0229202508926392, 1.2403556108474731, 0.8813191652297974, 0.6017186045646667, 0.5142384171485901, 0.09790755808353424, -0.25175827741622925, 0.4599403440952301, -0.237128347158432, -0.9970384836196899, -0.3937872350215912, -0.5023415088653564, -0.3790861666202545, 0.2565400302410126, 0.34914207458496094, 0.8085339665412903, -0.9600375294685364, 0.22100424766540527, 0.09055435657501221, 0.2142065465450287, 0.09844963252544403, -0.2996772825717926, 0.6788197755813599, 1.0295382738113403, 0.5637854337692261, 0.37446776032447815, -0.08989056944847107, 1.447615385055542, -0.22132080793380737, 1.1605509519577026, -0.05619893968105316, -0.9640876650810242, 0.7568508386611938, -0.8513485193252563, -0.36519789695739746, 1.866599440574646, 1.3269245624542236, -0.6897585988044739, 2.022090435028076, -0.7139252424240112, -0.973646879196167, -0.32565543055534363, -0.5536431670188904, -1.0408575534820557, 0.1491297334432602, -0.17522022128105164, 0.6929778456687927, 0.7241743206977844, 0.24704185128211975, 0.04744986444711685, 1.1263192892074585, 0.23195046186447144, -0.46574801206588745, 1.0146100521087646, 0.9914728999137878, -0.9421613216400146, -0.16124051809310913, 0.5757795572280884, -1.6014999151229858, 0.942021369934082, -0.13802123069763184, 0.7781659364700317, -0.3016326129436493, -0.3145163953304291, 0.6048733592033386, 1.0111949443817139, -0.353620707988739, -0.023074962198734283, -0.9892167448997498, 0.4660123884677887, -0.006513923406600952, -0.5761107206344604, 0.4505486786365509, -0.7153312563896179, 0.627169668674469, 0.6774528622627258, 0.39701831340789795, -0.016785060986876488, -0.585901141166687, 0.44380316138267517, -1.4152026176452637, -0.2004884034395218, 0.013491546735167503, -0.1204865425825119, -0.855146586894989, 0.2850651144981384, -0.8754974603652954, -0.4427865743637085, 1.0411462783813477, -0.5422326326370239, -0.36227405071258545, -0.9544528126716614, -0.7353848218917847, 1.2569299936294556, -0.09978729486465454, 1.0812885761260986, 1.2125087976455688, -0.0010385997593402863, -0.33989956974983215, -0.4309099316596985, 0.06621907651424408, 0.7193058729171753, -0.600749135017395, 0.27835944294929504, -0.01340416632592678, 1.213038444519043, -0.12769664824008942, 0.02211511880159378, 0.04021509364247322, -0.3718318045139313, 1.4440746307373047, -0.016101941466331482, 1.3124175071716309, -0.07626542448997498, -0.4259409010410309, -0.16467973589897156, 0.08445727825164795, 0.5731172561645508, 0.5015648603439331, -0.12621621787548065, 1.2687064409255981, -1.2929059267044067, 0.02301829308271408, -1.0884037017822266, -0.11879101395606995, 0.2521812617778778, -0.8699237108230591, -1.3730800151824951, 0.7442466020584106, -0.6056679487228394, 0.8400828838348389, -0.14777366816997528, -0.622337818145752, -1.6150020360946655, 0.10661014169454575, 1.0117672681808472, 0.15194165706634521, 0.009211856871843338, 0.730218231678009, 0.699774444103241, -1.1436392068862915, -0.528143048286438, 0.8275984525680542, -0.30632856488227844, 0.09187574684619904, 1.1367504596710205, -0.8628734946250916, 0.22250321507453918, 1.3115748167037964, -1.2779138088226318, -0.7034353017807007, 0.09299272298812866, -1.2697796821594238, 0.1097436249256134, -0.1493586003780365, -0.3900083303451538, 0.13479161262512207, -0.2398666888475418, 0.1562478244304657, 0.33283326029777527, -0.29616379737854004, -0.18863695859909058, -0.27120140194892883, 0.10308986157178879, -0.05419512838125229, -1.356260895729065, -0.1835630238056183, 0.7469789981842041, -0.4288879334926605, -0.8516361713409424, -0.683469831943512, 0.8064391016960144, 1.570145845413208, -0.49477750062942505, 0.02134900540113449, 0.5594713091850281, -0.15228161215782166, 0.8480408191680908, -0.19759583473205566, -0.09702138602733612, 0.04700103774666786, -0.26378774642944336, -0.7075897455215454, 0.22653883695602417, -0.7145776748657227, -0.7445236444473267, 0.1161828339099884, -0.16165149211883545, -0.4169914126396179, -1.193666696548462, -1.8882880210876465, -1.3535674810409546, 0.21717903017997742, -0.6264594197273254, 0.15616169571876526, -0.1407088041305542, -0.5524398684501648, 0.8632184863090515, -0.8356232047080994, -1.6226577758789062]\n"
     ]
    }
   ],
   "source": [
    "print(embedding_model.embed_query('你是谁'))"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T06:53:00.344008Z",
     "start_time": "2024-05-19T06:53:00.263517Z"
    }
   },
   "id": "8c240929fd1e9336"
  },
  {
   "cell_type": "markdown",
   "source": [
    "# Bing"
   ],
   "metadata": {
    "collapsed": false
   },
   "id": "aa7bb4bd62d9fe0b"
  },
  {
   "cell_type": "code",
   "execution_count": 48,
   "outputs": [],
   "source": [
    "def search_with_bing(query):\n",
    "    import requests\n",
    "    from bs4 import BeautifulSoup\n",
    "    from urllib.parse import quote\n",
    "    \n",
    "    url = f'https://cn.bing.com/search?q={quote(query)}'\n",
    "    headers = {\n",
    "        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36'\n",
    "    }\n",
    "    resp = requests.get(url, headers=headers)\n",
    "    soup = BeautifulSoup(resp.text, 'html.parser')\n",
    "    \n",
    "    result_elements = soup.select('#b_results > li')\n",
    "    data = []\n",
    "    # link: div.b_tpcn > a > div.tptxt > div.tpmeta > div > cite\n",
    "    # abstract: div.b_caption > p\n",
    "    # #b_results: h2\n",
    "    for parent in result_elements:\n",
    "        if parent.select_one('h2') is None:\n",
    "            continue\n",
    "        data.append({\n",
    "            'title': parent.select_one('h2').text,\n",
    "            'abstract': parent.select_one('div.b_caption > p').text.replace('\\u2002', ' '),\n",
    "            'link': parent.select_one('div.b_tpcn > a').get('href')\n",
    "        })\n",
    "    return data"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T10:25:33.007Z",
     "start_time": "2024-05-19T10:25:33.003182Z"
    }
   },
   "id": "c4e5a9183644028a"
  },
  {
   "cell_type": "code",
   "execution_count": 49,
   "outputs": [
    {
     "data": {
      "text/plain": "[{'title': 'Hello GPT-4o | OpenAI',\n  'abstract': '网页5 天之前 · GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, and image and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to ...',\n  'link': 'https://openai.com/index/hello-gpt-4o/'},\n {'title': 'OpenAI发布新模型GPT-4o：对所有人免费、更易用、更强 ...',\n  'abstract': '网页5 天之前 · 根据 Mira Murati 的说法，OpenAI 的愿景是 AI 的便利能福泽所有人类，所以新的 GPT-4o 模型会向大伙们免费开放使用，付费用户呢，则在使用次数上比免费用户多 5 倍。（ 官方指出，当使用次数达到上限时，免费用户会被强制退回到 GPT-3.5 版本。。',\n  'link': 'https://new.qq.com/rain/a/20240514A06U7F00'},\n {'title': 'OpenAI推出最新大模型“GPT-4o”，你的快乐悲伤它都能读懂 ...',\n  'abstract': '网页4 天之前 · 那么在周一的发布会上，OpenAI究竟推出了什么“魔力（magic ）”产品？GPT-4o，OpenAI首款能分析情绪的多模态大型语言模型 美西时间上午10点整，OpenAI首席技术官米拉·穆拉提（Mira Murati）进入了直播室，向观众介绍了这次春季大更新，其中包括桌面 …',\n  'link': 'https://www.thepaper.cn/newsDetail_forward_27372275'},\n {'title': '如何看待OpenAI 发布 GPT-4o，那些信息值得关注？ - 知乎',\n  'abstract': '网页5 天之前 · GPT-4o 是OpenAI的新旗舰模型，能够实时跨音频、视觉和文本进行推理。 GPT-4o将在ChatGPT和API中作为文本和视觉模型提供（ChatGPT将继续通过现有的Voice Mode功能支持语音）。 GPT-4 Turbo 与GPT-4o相比，GPT-4o在智能水平相同的情况下更快、更便宜，并且有更高的速率限制。 GPT-4o目前的上下文窗口为128k，并且知识截止日 …',\n  'link': 'https://www.zhihu.com/question/655952467'},\n {'title': '重磅！OpenAi发布新模型GPT-4o，部分Plus功能免费给所有 ...',\n  'abstract': '网页6 天之前 · 刚刚结束的春季发布会， OpenAI又放大招了！本以为没有 GPT-5、Search GPT 这样重量级产品，发布会不会有太多亮眼的表现。没想到，OpenAI 直接贴脸开大，再次向世人宣告： 谁才是最强 AI 模型！简单总结一下发布会…',\n  'link': 'https://zhuanlan.zhihu.com/p/697585279'},\n {'title': 'OpenAI 发布全新实时多模态模型 GPT-4o - 知乎',\n  'abstract': '网页5 天之前 · 李祺 Varman. 微软 MVP | 专注低代码与 AIGC 领域 |同名公众号. 3 人赞同了该文章. 北京时间5月14日凌晨，万众瞩目的 OpenAI 发布会正式召开，发布会全长 26分钟，虽然简短，但内容及其震撼。 如果要总结到底讲了什么事情，其实就是三件： 发布了全新的实时多模态旗舰模型 Gpt-4o (omni*)，可以实时进行文本，视频和音频的推理与交互。 升级 …',\n  'link': 'https://zhuanlan.zhihu.com/p/697587431'},\n {'title': '3分钟速览OpenAI春季发布会：GPT-4o炸裂登场！ - 澎湃新闻',\n  'abstract': '网页5 天之前 · OpenAI在活动中发布了新旗舰模型“GPT-4o”，“可以实时对音频、视觉和文本进行推理。 ”据介绍，新模型使ChatGPT能够处理50种不同的语言，同时提高了速度和质量。 GPT-4o的“o”代表“omni”。 该词意为“全能”，源自拉丁语“omnis”。 在英语中“omni”常被用作词根，用来表示“全部”或“所有”的概念。 新闻稿称，GPT-4o是迈向更自然人机交互的一 …',\n  'link': 'https://www.thepaper.cn/newsDetail_forward_27369103'},\n {'title': '炸裂登场！OpenAI推出新旗舰模型GPT-4o_澎湃号·媒体 ...',\n  'abstract': '网页5 天之前 · GPT-4o登场 OpenAI在活动中发布了新旗舰模型“GPT-4o”，“可以实时对音频、视觉和文本进行推理。”据介绍，新模型使ChatGPT能够处理50种不同的语言，同时提高了速度和质量。GPT-4o的“o”代表“omni”。该词意为“全能”，源自拉丁语“omnis”。',\n  'link': 'https://www.thepaper.cn/newsDetail_forward_27370901'},\n {'title': '一文总结OpenAI新发布的GPT-4o的能力和信息，免费 ...',\n  'abstract': '网页5 天之前 · 目录. 本文原文来自DataLearnerAI官方网站： OpenAI在GPT-4发布一年之后再次更新其基础模型，发布最新的GPT-4o模型，其中o代表的是omni，即“全能”的意思。 GPT-4o相比较此前最大的升级是对多模态的支持以及性能的提升，特别是数学推理能力有大幅提高。 GPT-4o在各方面比GPT-4更强，但是速度更快，开发者接口的价格则只有一半！ …',\n  'link': 'https://zhuanlan.zhihu.com/p/697591062'},\n {'title': 'OpenAI 发布全新旗舰生成式 AI 模型 GPT-4o：语音对话更 ...',\n  'abstract': '网页5 天之前 · IT之家 5 月 14 日消息，OpenAI 宣布推出其最新旗舰生成式 AI 模型 GPT-4o，该模型将在未来几周内分阶段集成至 OpenAI 的各个产品之中。 最让人惊喜的是，GPT-4o 将免费提供给所有用户使用。 OpenAI 首席技术官穆里・穆拉蒂 (Muri Murati) 表示，GPT-4o 将提供与 GPT-4 同等水平的智能，但在文本、图像以及语音处理方面均取得了进一步提升。 …',\n  'link': 'https://www.ithome.com/0/767/693.htm'}]"
     },
     "execution_count": 49,
     "metadata": {},
     "output_type": "execute_result"
    }
   ],
   "source": [
    "search_with_bing('介绍一下OpenAI最新发布的大模型GPT-4o')"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T10:25:45.868188Z",
     "start_time": "2024-05-19T10:25:44.228615Z"
    }
   },
   "id": "7f9b2d74ffd9c5af"
  },
  {
   "cell_type": "code",
   "execution_count": 47,
   "outputs": [
    {
     "data": {
      "text/plain": "[{'title': '什么是LLM大语言模型？Large Language Model，从量变到质变',\n  'abstract': '网页2023年4月17日 · 大语言模型（英文：Large Language Model，缩写LLM），也称大型语言模型，是一种人工智能模型，旨在理解和生成人类语言。. 它们在大量的文本数据上进行训练，可以执行广泛的任务，包括文本总结、翻译、情感分析等等。. LLM的特点是 规模庞大，包含数十亿的参数 ...',\n  'link': 'https://zhuanlan.zhihu.com/p/622518771'},\n {'title': '什么是大模型（LLMs）？一文读懂大型语言模型（Large ...',\n  'abstract': '网页2 天之前 · 大模型是指具有大规模参数和复杂计算结构的机器学习模型。 这些模型通常由 深度神经网络 构建而成，拥有数十亿甚至数千亿个参数。 大模型的设计目的是为了提高模型的表达能力和预测性能，能够处理更加复杂的任务和数据。 大模型在各种领域都有广泛的应用，包括自然语言处理、计算机视觉、语音识别和 推荐系统 等。 大模型通过训练海量数据 …',\n  'link': 'https://www.aigc.cn/large-models'},\n {'title': '一文读懂“大语言模型” - 知乎',\n  'abstract': '网页2023年7月17日 · 谷歌的 Gen AI 开发工具介绍. 2、大语言模型介绍. 2.1 大语言模型的定义. 大语言模型是深度学习的分支. 深度学习是机器学习的分支，大语言模型是深度学习的分支。 机器学习是人工智能（AI）的一个子领域，它的核心是让计算机系统能够通过对数据的学习来提高性能。 在机器学习中，我们不是直接编程告诉计算机如何完成任务，而是提供大量 …',\n  'link': 'https://zhuanlan.zhihu.com/p/644183721'},\n {'title': '2023 年热门的大型语言模型 (LLMs)汇总 - 知乎',\n  'abstract': '网页2023年10月17日 · 大模型（LLMs）是一种人工智能模型，旨在理解和生成人类语言。. 它们通过在大量的文本数据上进行训练，可以执行广泛的任务，包括文本总结、翻译、情感分析等等。. 这些模型通常基于深度学习架构，如转换器，这使它们在各种自然语言处理任务上表现 …',\n  'link': 'https://zhuanlan.zhihu.com/p/653725912'},\n {'title': '大语言模型综述 - Renmin University of China',\n  'abstract': '网页2023年6月5日 · 目前，大语言模型取得如此巨大的成就，我们总结了五方面原因： 1）模型、数据和计算资源的扩展； 2）高效稳定的训练手段； 3）语言模型能力诱导； 4）对齐训练，将大语言模型与人类偏好对齐； 5）工具使用（潜在发展方向）。 二、大语言模型相关资源',\n  'link': 'http://ai.ruc.edu.cn/research/science/20230605100.html'},\n {'title': '什么是大语言模型 (LLM)？| IBM',\n  'abstract': '网页3 天之前 · 什么是 LLM？ 大型语言模型 (LLM) 是一类基础模型，经过大量数据训练，使其能够理解和生成自然语言和其他类型的内容，以执行各种任务。 LLM 这个名称已家喻户晓，这要归功于它们在将生成式 AI 带到公众利益最前沿方面所发挥的作用，以及组织专注于在众多业务职能和用例中采用人工智能的目标。 随着 生成式 AI 的新发展，在企业环境之外， …',\n  'link': 'https://www.ibm.com/cn-zh/topics/large-language-models'},\n {'title': '大语言模型_百度百科',\n  'abstract': '网页2023年12月26日 · 技术简介. 播报. 编辑. 大语言模型（LLM）是指使用大量文本数据训练的 深度学习 模型，可以生成自然语言文本或理解语言文本的含义。 大语言模型可以处理多种自然语言任务，如文本分类、问答、对话等，是通向 人工智能 的一条重要途径。 [1] 发展历史. 播报. 编辑. 2020年9月， OpenAI 授权微软使用GPT-3模型，微软成为全球首个享用GPT …',\n  'link': 'https://baike.baidu.com/item/%E5%A4%A7%E8%AF%AD%E8%A8%80%E6%A8%A1%E5%9E%8B/62884793'},\n {'title': '一文看懂：到底什么是大语言模型？- LLM 全面解读',\n  'abstract': '网页大语言模型（LLM）是一种利用机器学习技术来理解和生成人类语言的 人工智能模型 。 对于希望从各个方面增强通信和数据处理并实现自动化的企业和机构而言，LLM 具有极高的价值。 LLM 使用基于神经网络的模型，通常运用自然语言处理（NLP）技术来处理和计算其输出。 NLP 是人工智能（AI）的一个分支领域，专注于使计算机能够理解、解释和生成文 …',\n  'link': 'https://www.redhat.com/zh/topics/ai/what-are-large-language-models'},\n {'title': '大规模语言模型：从理论到实践 - GitHub Pages',\n  'abstract': '网页2023年12月11日 · 关于本书. 大语言模型（Large Language Models，LLM）是一种由包含数百亿以上权重的深度神经网络构建的语言模型，使用自监督学习方法通过大量无标记文本进行训练。 自2018年以来，包含Google、OpenAI、Meta、百度、华为等公司和研究机构都纷纷发布了包括BERT， GPT等在内多种模型，并在几乎所有自然语言处理任务中都表现出色 …',\n  'link': 'https://intro-llm.github.io/'},\n {'title': '深入浅出：大型语言模型（LLM）的全面解读_语言大模型llm ...',\n  'abstract': '网页2024年3月22日 · 语言模型（Language Model）是自然语言处理领域中的一个基础概念，它是一种用于计算语言概率的数学模型。 简单来说，语言模型试图理解语言的结构和规律，并预测一段文本中下一个词或字符的概率分布。 通过学习语言的统计规律，语言模型可以自动识别语法、句法和语义等语言特征，从而实现对文本的理解和生成。 语言模型的发展历 …',\n  'link': 'https://blog.csdn.net/fudaihb/article/details/136917645'}]"
     },
     "execution_count": 47,
     "metadata": {},
     "output_type": "execute_result"
    }
   ],
   "source": [
    "search_with_bing('大语言模型')"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T07:38:55.642784Z",
     "start_time": "2024-05-19T07:38:55.426041Z"
    }
   },
   "id": "5b890ac97d68f17e"
  },
  {
   "cell_type": "markdown",
   "source": [
    "# Tavily"
   ],
   "metadata": {
    "collapsed": false
   },
   "id": "b23b74eb881af372"
  },
  {
   "cell_type": "code",
   "execution_count": 9,
   "outputs": [
    {
     "name": "stdout",
     "output_type": "stream",
     "text": [
      "[Document(page_content='6%。我们在这个训练的时候把这个东西称作语料，就语言材料，这个语料的量是可以说是集中到我们人类所有语言文明的精华在里面，这是一个非常非常庞大的一个数据库。\\n从量变到质变\\n经过这样的一个量的学习之后，它产生的一些就是做 AI 的这些计算机学家们，他们没有想到会有这种变化，无法合理解释这一现象的产生即——当数据量超过某个临界点时，模型实现了显著的性能提升，并出现了小模型中不存在的能力，比如上下文学习（in-context learning）。\\n这也就催生了两个事件：\\n大语言模型涌现的能力\\n语言模型历史\\n2017谷歌推出 transformer 模型，2018 年的时候谷歌提出了 Bert 的模型，然后到 GPT 2，从 340 兆到 10 亿 、15 亿，然后到 83 亿，然后到 170 亿，然后到 GPT3 1750 亿的参数。\\n最早的是 2017 年出来的，就是我们所了解的那个GPT， GPT 名字里面有一个叫做transformer，就是这个 transformer 模型。它是 2017 年出现的，其实也很早，所以计算机领域来说， 2017 年可以归结于上一个时代的产品。然后 2018 年第一代 GPT 出来，当时还不行，相对来说比较差，性能也不行，然后像一个玩具一样。然后 2018 年谷歌又推出了一个新的模型，叫BERT，但是这些模型都是基于之前谷歌推出的这个 transformer 模型进行发展的。然后到了 2019 年， open AI 除了 GPT 2 也没有什么特别，就是它没有办法来产生一个语言逻辑流畅通顺的一段名词，你一看就知道这是机器写的。\\n但是到了 2020 年的5月， GPT 3 出来之后，其实就有了非常大的变化， GPT 3 的性能比 GPT 2 好很多，它的数参数的数量级大概是 GPT 2- 10 倍以上。\\n大语言模型的训练方式\\n训练语言模型需要向其提供大量的文本数据，模型利用这些数据来学习人类语言的结构、语法和语义。这个过程通常是通过无监督学习完成的，使用一种叫做自我监督学习的技术。在自我监督学习中，模型通过预测序列中的下一个词或标记，为输入的数据生成自己的标签，并给出之前的词。\\n训练过程包括两个主要步骤：预训练（pre-training）和微调（fine-tuning）：\\n常见的大语言模型\\nGPT-3（OpenAI）： Generative Pre-trained Transformer 3（GPT-3）是最著名的LLM之一，拥有1750亿个参数。该模型在文本生成、翻译和其他任务中表现出显著的性能，在全球范围内引起了热烈的反响，目前OpenAI已经迭代到了GPT-4版本\\nBERT（谷歌）：Bidirectional Encoder Representations from Transformers（BERT）是另一个流行的LLM，对NLP研究产生了重大影响。该模型使用双向方法从一个词的左右两边捕捉上下文，使得各种任务的性能提高，如情感分析和命名实体识别。\\nT5（谷歌）： 文本到文本转换器（T5）是一个LLM，该模型将所有的NLP任务限定为文本到文本问题，简化了模型适应不同任务的过程。T5在总结、翻译和问题回答等任务中表现出强大的性能。\\nERNIE 3.0 文心大模型（百度）：百度推出的大语言模型ERNIE 3.0首次在百亿级和千亿级预训练模型中引入大规模知识图谱，提出了海量无监督文本与大规模知识图谱的平行预训练方法。\\n参考链接：\\n语言模型——维基百科\\nA Survey of Large Language Models\\n文章被以下专栏收录\\nAI百科 什么是LLM大语言模型？Large Language Model，从量变到质变\\n大语言模型的定义\\n大语言模型（英文：Large Language Model，缩写LLM），也称大型语言模型，是一种人工智能模型，旨在理解和生成人类语言。它们在大量的文本数据上进行训练，可以执行广泛的任务，包括文本总结、翻译、情感分析等等。LLM的特点是规模庞大，包含数十亿的参数，帮助它们学习语言数据中的复杂模式。这些模型通常基于深度学习架构，如转化器，这有助于它们在各种NLP任务上取得令人印象深刻的表现。\\n这个大语言模型到底有多大？\\n拿 GPT 来说， GPT 其实出现了好几代，GPT 3 它有 45 个 t b 的训练数据，那么整个维基百科里面的数据只相当于他训练数据的 0.', metadata={'title': '什么是LLM大语言模型？Large Language Model，从量变到质变 - 知乎', 'source': 'https://zhuanlan.zhihu.com/p/622518771', 'score': 0.97693, 'images': None}), Document(page_content='。\\n有时，AI 和自动化的问题在于它们过于耗费劳动力。但是，借助预训练的开源基础模型，这一切都在改变。\\nGranite 模型由 IBM Research 开发，使用“解码器”架构，这是当今大型语言模型预测序列中下一个单词的能力的基础。\\n我们的数据驱动研究识别企业如何在不断发展扩大的生成式 AI 领域找到并抓住机会。\\n对话式搜索功能由我们的 IBM Granite 大型语言模型和企业搜索引擎 Watson Discovery 提供技术支持，旨在扩展基于业务内容的对话式答案。\\n尽管在企业范围内采用生成式 AI 仍然具有挑战性，但成功实施这些技术的组织可以获得显著的竞争优势。\\n如果“大辞职潮”真的是“大升级潮”呢——通过更好地利用员工的技能来吸引和留住员工？数字劳动力为员工承担繁重的工作，从而使得上述想法成为可能。\\n了解有关 watsonx 的更多信息，以及如何利用 IBM 的下一代 AI 和数据平台为企业将 AI 功用提升数倍。 正在通过简化流程、改善客户体验以及实现更高效和数据驱动的决策来推动行业发展和变革。\\n最令人兴奋的是，所有这些功能都很容易访问，在某些情况下，实际上只需 API 集成即可。\\n以下是 LLM 为组织带来益处的一些最重要的领域：\\n文本生成：语言生成能力，如根据提示撰写电子邮件、博客文章或其他中长篇内容，并加以提炼和润色。检索增强生成 (RAG) 就是一个很好的例子。\\n内容摘要：将长文章、新闻报道、研究报告、公司文档甚至客户历史记录汇总成根据输出格式定制长度的完整文本。\\nAI 助手：聊天机器人，可以回答客户询问、执行后端任务并以自然语言提供详细信息，作为集成式自助客户服务解决方案的一部分。\\n代码生成：帮助开发人员构建应用程序，查找代码中的错误并发现多种编程语言中的安全问题，甚至在它们之间进行“翻译”。\\n情感分析：分析文本，确定客户的语气，以便大规模了解客户反馈并帮助进行品牌声誉管理。\\n AI 在您的企业发挥更强大的作用。\\n订阅 IBM 时事通讯\\nLLM 通过利用深度学习技术和大量文本数据来运行。这些模型通常基于转换器架构，如生成式预训练转换器，它擅长处理文本输入等顺序数据。LLM 由多层神经网络组成，每层神经网络的参数都可以在训练过程中进行微调，而被称为注意力机制的众多神经网络层则进一步增强了这些神经网络的功能，这些神经网络层可以对数据集的特定部分进行调整。\\n在训练过程中，这些模型学习根据前面单词提供的上下文来预测句子中的下一个单词。该模型通过将概率分数归因于重复的已标记单词（分解为较小的字符序列）来实现这一点。然后，这些标记被转换为嵌入，嵌入是该上下文的数字表示。\\n为了确保准确性，这个过程涉及在大量文本语料库（数十亿页）上训练 LLM，使 LLM 能够通过零样本和自我监督学习来学习语法、语义和概念关系。经过这些训练数据的训练后，LLM 就可以根据它们收到的输入自动预测下一个单词，并利用它们获得的模式和知识来生成文本。其结果是生成连贯且与上下文相关的语言，可用于广泛的 NLU 和内容生成任务。\\n还可以通过即时工程、即时调优、微调和其他策略来提高模型性能，例如基于人类反馈的强化学习 (RLHF)，以消除偏见、仇恨言论和被称为“幻觉”的事实错误答案，这些通常是对如此多的非结构化数据进行训练的有害副产品。这是确保企业级 LLM 随时可用，不会使组织承担不必要的责任或对组织声誉造成损害的最重要的方面之一。\\n PaLM 模型的 Google 双向编码器表示。IBM 最近还在 watsonx.ai 上推出了 Granite 模型系列，它已成为 watsonx Assistant 和 watsonx Orchestrate 等其他 IBM 产品的生成式 AI 支柱。\\n简而言之，LLM 旨在经过大量数据训练，像人类一样理解和生成文本以及其他形式的内容。这种模型有能力从环境中推断，生成连贯且与环境相关的响应，翻译成英语以外的语言，总结文本，回答问题（一般对话和常见问题解答），甚至协助完成创造性写作或代码生成任务。\\n它们之所以如此神通广大，是因为有数十亿个参数使模型能够捕获语言中的复杂模式并执行各种与语言相关的任务。LLM 正在彻底改变从聊天机器人和虚拟助理到内容生成、研究协助和语言翻译各个领域的应用程序。\\n随着 LLM 的不断发展和改进，LLM 将重塑我们与技术交互和获取信息的方式，使它们成为现代数字环境的关键部分。\\n借助 IBM 的下一代 AI 和数据平台，让 AI 带来的风险，从而以可靠的方式部署模型，并且需要最少的输入来确保它们为客户做好准备。\\nwatsonx.ai 提供对 Hugging Face 开源模型、第三方模型以及 IBM 预训练模型系列的访问。例如，Granite 模型系列使用解码器架构来支持针对企业用例的各种生成式 AI 任务。\\n在每次互动中为客户、需要帮助的客户服务中心座席人员乃至需要信息的员工提供卓越体验。以基于业务内容的自然语言扩展答案，以推动以结果为导向的交互和快速、准确的响应。\\n自动执行任务并简化复杂的流程，使员工可以专注于更高价值的战略性工作。借助一套自动化和 AI 工具提升员工的生产力水平，通过对话界面即可完成所有操作', metadata={'title': '什么是大语言模型 (Llm)？| Ibm', 'source': 'https://www.ibm.com/cn-zh/topics/large-language-models', 'score': 0.97335, 'images': None})]\n"
     ]
    }
   ],
   "source": [
    "from langchain_community.retrievers import TavilySearchAPIRetriever\n",
    "import os\n",
    "\n",
    "query = '大语言模型'\n",
    "os.environ[\"TAVILY_API_KEY\"] = 'tvly-替换为自己的'\n",
    "retriever = TavilySearchAPIRetriever(k=2)\n",
    "documents = retriever.invoke(query)\n",
    "print(documents)"
   ],
   "metadata": {
    "collapsed": false,
    "ExecuteTime": {
     "end_time": "2024-05-19T06:54:32.601204Z",
     "start_time": "2024-05-19T06:54:30.154887Z"
    }
   },
   "id": "47a51f35eb6ccd75"
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "outputs": [],
   "source": [],
   "metadata": {
    "collapsed": false
   },
   "id": "550796a3ba8f1b4"
  }
 ],
 "metadata": {
  "kernelspec": {
   "display_name": "Python 3",
   "language": "python",
   "name": "python3"
  },
  "language_info": {
   "codemirror_mode": {
    "name": "ipython",
    "version": 2
   },
   "file_extension": ".py",
   "mimetype": "text/x-python",
   "name": "python",
   "nbconvert_exporter": "python",
   "pygments_lexer": "ipython2",
   "version": "2.7.6"
  }
 },
 "nbformat": 4,
 "nbformat_minor": 5
}
