Tuesday 14 February 2017

Knight Upgrade Triggered Old Trading System

Zombie Software Blamed pour Knight Capital Trading Snafu Publié le 15 Aug 2012 19:30 GMT Une histoire de Bloomberg Nouvelles hier a permis de mieux comprendre ce qui a causé le commerce électronique incontrôlée par le marché de la courtage Knight Capital il ya quelques semaines. Il semble qu'un programme d'héritage dormant ait été réactivé quotintement. Et a ensuite interféré avec (ou a repris) le commerce de l'entreprise le 1er août, quand un nouveau programme de trading de logiciels que Knight avait installé a commencé à fonctionner. Une fois déclenché le 1 er août, le système en sommeil a commencé à multiplier les transactions boursières par mille, rdquo Bloomberg a été dit par deux sources anonymes qui ont été informés sur la question. Hmm, le logiciel mort devient réanimé, reprend un système informatique, puis court amok. Je crois que j'ai vu ce film quelque part. En outre, selon les sources, le personnel de ldquoKnightrsquos a regardé à travers huit ensembles de logiciel avant de déterminer ce qui s'est passé. rdquo Presque sonne comme il y avait un cimetière plein de logiciel mort prêt à être réanimé. Malheureusement, l'article ne dit rien de plus sur la façon dont le logiciel dormant s'est réveillé et s'est interposé quand il est venu à l'exécution des métiers qui étaient censés être initiés par le nouveau logiciel que Knight avait installé. Il ne dit pas non plus pourquoi Knight garderait des ensembles de softwarerdquo apparemment résident dans son environnement d'exécution. Wersquoll devra probablement attendre que la SEC termine son enquête pour découvrir ce qui s'est réellement passé ainsi que, vraisemblablement, certains détails juteux sur le développement de logiciels de Knight et les tests de système. Néanmoins, ce que l'on appelle le «glitch rdquo» (entre autres) a poussé les régulateurs en Asie et en Australie à se lécher sur les firmes commerciales à haute fréquence, a rapporté le Financial Times cette semaine. Les régulateurs sont en train de présenter des propositions radicales qui exigeraient des négociants d'avoir des contrôles sur leurs systèmes et de les tester annuellement afin de prévenir les perturbations du marché, a déclaré le journal. Les régulateurs veulent des contrôles de risque ldquopre-traderdquo en place pour empêcher ldquoaberrantrdquo trading de se produire, ainsi que le trading ldquokill switchesrdquo lorsque les contrôles de risque échouent. Par ailleurs, le FT a également rapporté que la récente glitch à la Bourse de Tokyo a été tracée à un mauvais ldquorouter dans son système de négociation de dérivés Tdex. Pour les raisons non encore expliqué, un routeur de secours n'a pas réussi à kick in C'est la deuxième fois Cette année qu'un système de sauvegarde de TSE n'a pas lancé quand il a été nécessaire. Un problème de routeur a également causé des problèmes pendant plusieurs heures hier matin à Californiarsquos Département des véhicules automobiles (DMV). Selon l'Associated Press. Un problème avec un routeur de l'état de Californie a causé les ordinateurs DMVrsquos de se déconnecter du réseau statersquos de 08h00 à midi, heure locale, sans doute exaspérant et en colère de nombreux clients. Selon la station de télévision CBS Sacramento. La Californie DMV a présenté ses excuses à ses clients via Twitter 26 fois seul depuis février pour des difficultés techniques. La station a enquêté sans beaucoup de chance les arrêts de la DMV qui ont apparemment pris le système vers le bas avec une certaine régularité depuis 2007. Par coïncidence, plusieurs autres agences de l'état de la Californie ont eu des problèmes de réseautage d'ordinateur hier que l'Etat blâmé sur un ldquocircuit inexplicable reconfigurationrdquo question . Cette question non liée, les rapports de l'AP, a également été corrigée hier à midi. Enfin, Manganese Bronze, la compagnie qui fait de Londonrsquos un taxi noir familier, a annoncé cette semaine que ldquoit retarde la publication de ses résultats semestriels non vérifiés pour le semestre clos le 30 juin 2012. en raison de la nécessité de redresser les résultats financiers des exercices antérieurs parce que Des erreurs comptables qui sont venues à la lumière. rdquo Les erreurs pourraient probablement être étiquetés erreurs informatiques, cependant, plutôt que comptables. Selon un communiqué de la société, en août 2010, un nouveau système intégré de comptabilité informatique, qui a été installé pour aider à gérer la société, a manqué quelques transactions clés lors de la coupure: ldquoDue à une combinaison d'erreurs de système et de procédure , Un certain nombre d'opérations relatives aux exercices 2010 et 2011 et certains soldes résiduels du système précédent n'ont pas été traités correctement dans le nouveau système informatique. Ce problème a conduit à la sur-déclaration de l'action et sous-état du passif dans les états financiers des années précédentes. rdquo En conséquence, la société a sous-évalué par £ 3,9 millions de ses pertes historiques. Manganese Bronze a été sous forte pression concurrentielle, ou dans ses propres mots, ldquoTrading dans les sept premiers mois de l'année a été difficile et reste difficile avec le Groupe continuant à échanger à un loss. rdquo Bien qu'il s'attend à ce que la situation s'améliore éventuellement, La forte concurrence actuelle de Mercedes-Benz (qui fournit maintenant près d'un tiers de la flotte de taxis de Londres) et une certaine nouvelle concurrence attendue de Nissanrsquos nouveaux taxis à faible émission peut ne pas bonner bien pour la santé financière future companyrsquos. Le FT a rapporté que le stock de Manganese Bronze a chuté de 34 pour cent sur les nouvelles du retraitement des résultats et a maintenant seulement une valeur marchande de quelque £ 5 millions. En savoir plus J'ai parlé lors d'une conférence l'année dernière sur les thèmes de DevOps, la configuration en tant que code et la livraison continue et utilisé l'histoire suivante pour démontrer l'importance de faire des déploiements entièrement automatisée et répétable dans le cadre d'une initiative de livraison DevOpsContinuous. Depuis cette conférence, plusieurs personnes m'ont demandé de partager l'histoire à travers mon blog. Cette histoire est vraie ce qui s'est vraiment passé. C'est mon récit de l'histoire basée sur ce que j'ai lu (je n'étais pas impliqué dans ce). C'est l'histoire de la faillite d'une entreprise avec près de 400 millions d'actifs en 45 minutes en raison d'un déploiement défaillant. Contexte Knight Capital Group est une société américaine de services financiers internationaux qui s'engage dans la fabrication de marchés. L'exécution électronique et les ventes et le commerce institutionnels. En 2012, Knight a été le plus gros trader dans les actions américaines avec une part de marché d'environ 17 sur le NYSE et le NASDAQ. Knights Electronic Trading Group (ETG) a géré un volume de transactions journalier moyen de plus de 3,3 milliards de transactions quotidiennes, en négociant plus de 21 milliards de dollars par jour. Ce n'est pas une blague Le 31 juillet 2012, Knight avait environ 365 millions de dollars en espèces et équivalents. Le NYSE prévoyait de lancer un nouveau programme de liquidité de détail (un programme visant à fournir des prix améliorés aux investisseurs de détail par le biais de courtiers de détail, comme Knight) le 1er août 2012. En préparation pour cet événement, Knight a mis à jour son algorithme automatisé, à haute vitesse, algorithmique Routeur qui envoie des ordres dans le marché pour l'exécution connu sous le nom SMARS. L'une des fonctions principales de SMARS est de recevoir des ordres d'autres composants de la plate-forme de négociation Knights (ordres parents) et d'envoyer ensuite une ou plusieurs ordres enfants pour exécution. En d'autres termes, SMARS recevrait de grandes commandes de la plate-forme de négociation et les diviser en plusieurs commandes plus petites afin de trouver un match acheteur pour le volume d'actions. Plus l'ordre parent est grand, plus les ordres enfants seront générés. La mise à jour de SMARS était destinée à remplacer le vieux code inutilisé appelé Power Peg fonctionnalité que Knight hadnt utilisé en 8 ans (pourquoi le code qui avait été mort pour 8 ans était encore présent dans la base de code est un mystère, mais thats Pas le point). Le code qui a été mis à jour repurposed un vieux drapeau qui a été utilisé pour activer la fonctionnalité Power Peg. Le code a été entièrement testé et prouvé pour fonctionner correctement et de manière fiable. Ce qui pourrait aller mal Ce qui pourrait éventuellement aller mal En effet Entre le 27 juillet 2012 et le 31 juillet 2012 Knight a déployé manuellement le nouveau logiciel à un nombre limité de serveurs par jour huit (8) serveurs au total. C'est ce que le dépôt SEC dit sur le processus de déploiement manuel (BTW s'il ya un dépôt SEC sur votre déploiement quelque chose peut-être terriblement mal). Pendant le déploiement du nouveau code, cependant, un des techniciens de Knights n'a pas copié le nouveau code à l'un des huit serveurs d'ordinateur de SMARS. Knight n'a pas eu un deuxième technicien examiner ce déploiement et personne à Knight a réalisé que le code Power Peg n'avait pas été retiré du huitième serveur, ni le nouveau code RLP ajouté. Knight n'avait pas de procédure écrite qui exigeait un tel examen. Numéro de dépôt SEC 70694 16 octobre 2013 À 9 h 30, heure de l'Est, le 1er août 2012, les marchés ont été ouverts et Knight a commencé à traiter les commandes des courtiers pour le compte de leurs clients pour le nouveau programme de liquidité de détail. Les sept (7) serveurs ayant le bon déploiement SMARS ont commencé à traiter correctement ces commandes. Les ordres envoyés au huitième serveur déclenché le supposable repurposed drapeau et ramené des morts l'ancien Power Peg code. Attaque des Zombies du Code des Tueurs Il est important de comprendre ce que le code Power Peg mort était censé faire. Cette fonctionnalité était censée compter les actions boughtsold contre une commande parent comme les ordres fils ont été exécutés. Power Peg ordonnerait au système d'arrêter l'acheminement des ordres enfants une fois l'ordre parent rempli. Fondamentalement, Power Peg suivrait les ordres des enfants et les arrêterait une fois que l'ordre des parents était terminé. En 2005, Knight a déplacé cette fonctionnalité de suivi cumulatif vers un stade antérieur de l'exécution du code (ce qui supprime le suivi du comptage de la fonctionnalité Power Peg). Lorsque l'indicateur Power Peg sur le huitième serveur a été activé, la fonctionnalité Power Peg a commencé à acheminer des ordres fils pour exécution, mais n'a pas suivi la quantité d'actions par rapport à l'ordre parent comme une boucle sans fin. 45 minutes d'enfer Imaginez ce qui se passerait si vous aviez un système capable d'envoyer des ordres automatisés à grande vitesse sur le marché sans aucun suivi pour voir si suffisamment de commandes avaient été exécutées. Oui, c'était si mal. Lorsque le marché a ouvert à 9 h 30, les gens savaient rapidement que quelque chose n'allait pas. À 9 h 31, il était évident pour beaucoup de gens à Wall Street que quelque chose de grave se produisait. Le marché a été inondé avec des ordres hors de l'ordinaire pour les volumes de négociation régulière sur certains stocks. À 9 h 32, beaucoup de gens de Wall Street se demandaient pourquoi il ne s'était pas arrêté. C'était une éternité en termes de négociation à grande vitesse. Pourquoi hadnt quelqu'un a frappé le kill-switch sur n'importe quel système faisait cela Comme il s'avère qu'il n'y avait pas de commutateur kill. Au cours des 45 premières minutes de négociation Knights exécutions constituées plus de 50 du volume de négociation, la conduite de certains stocks de plus de 10 de leur valeur. En conséquence, d'autres stocks ont diminué en valeur en réponse aux métiers erronés. Pour aggraver les choses, le système Knights a commencé à envoyer des messages électroniques automatisés plus tôt dans la journée dès 8h01 (lorsque SMARS avait traité des commandes admissibles à la négociation avant la mise en marché). Les messages de courrier électronique renvoient SMARS et identifient une erreur en tant que Power Peg désactivée. Entre 8 h 01 et 9 h 30, 97 de ces courriels ont été envoyés au personnel de Knight. Bien sûr, ces courriels n'étaient pas conçus comme des alertes système et donc personne ne les regardait tout de suite. Oops. Pendant les 45 minutes de Hell que Knight a expérimenté, ils ont essayé plusieurs contre-mesures pour essayer d'arrêter les métiers erronés. Il n'y avait pas d'interrupteur de mort (et pas de procédures documentées pour savoir comment réagir), ils ont donc été laissés à essayer de diagnostiquer le problème dans un environnement commercial en direct où 8 millions d'actions étaient échangées à chaque minute. Comme ils n'étaient pas en mesure de déterminer ce qui causait les commandes erronées, ils ont réagi en désinstallant le nouveau code des serveurs sur lesquels il a été déployé correctement. En d'autres termes, ils ont supprimé le code de travail et laissé le code brisé. Cela n'a fait qu'amplifier les problèmes entraînant l'activation de la commande Power Peg par tous les serveurs, et pas seulement celle qui n'a pas été déployée correctement. Finalement, ils ont été en mesure d'arrêter le système après 45 minutes de négociation. Dans les 45 premières minutes, le marché a été ouvert le code Power Peg reçu et traité 212 commandes parent. En conséquence SMARS a envoyé des millions d'ordres d'enfant dans le marché résultant dans 4 millions de transactions contre 154 stocks pour plus de 397 millions d'actions. Pour vous, drogués du marché boursier, cela signifiait que le chevalier supposait environ 3,5 milliards de positions longues nettes sur 80 actions et 3,15 milliards de positions courtes nettes sur 74 actions. En termes laymen8217s, Knight Capital Group a réalisé une perte de 460 millions en 45 minutes. Rappelez-vous, Knight n'a que 365 millions de dollars en espèces et équivalents. En 45 minutes, Knight est passé d'être le plus gros trader des actions américaines et un important market maker au NYSE et NASDAQ à la faillite. Ils avaient 48 heures pour réunir le capital nécessaire pour couvrir leurs pertes (ce qu'ils ont réussi à faire avec un investissement de 400 millions d'environ une demi-douzaine d'investisseurs). Knight Capital Group a finalement été acquis par Getco LLC (décembre 2012) et la société fusionnée s'appelle maintenant KCG Holdings. Une leçon à apprendre Les événements du 1er août 2012 devraient être une leçon pour toutes les équipes de développement et d'exploitation. Il ne suffit pas de construire de grands logiciels et de tester, vous devez également vous assurer qu'il est livré sur le marché correctement afin que vos clients obtiennent la valeur que vous fournissez (et donc vous ne faillir votre entreprise). Les ingénieurs qui ont déployé SMARS ne sont pas seuls à blâmer ici le processus que Knight avait mis en place n'était pas approprié pour le risque qu'ils ont été exposés. En outre, leur processus (ou leur absence) était intrinsèquement enclin à l'erreur. Chaque fois que votre processus de déploiement repose sur la lecture des humains et les instructions suivantes, vous vous exposez à des risques. Les humains font des erreurs. Les erreurs pourraient être dans les instructions, dans l'interprétation des instructions, ou dans l'exécution des instructions. Les déploiements doivent être automatisés et répétables et exempts d'erreurs humaines possibles. Si Knight avait implémenté un système de déploiement automatisé avec configuration, déploiement et automatisation des tests, l'erreur qui causerait le Knightmare aurait été évitée. Un couple des principes pour la livraison continue s'appliquent ici (même si vous ne mettez pas en œuvre un processus complet de livraison continue): libérer le logiciel devrait être un processus répétable et fiable. Automatiser autant que cela est raisonnable. Un scénario: supposons qu'ils avaient de très bons DevOps. Donc, tous les serveurs seraient synchronisés. Mais 8211 supposent que le nouveau code avait un bug. Donc, tous les serveurs sont en synchronisation, mais ont le même code buggy. Que faire si deux versions du code, c'est-à-dire les 2 derniers déploiements avaient ce bogue. Donc, une fois qu'ils se rendent compte que quelque chose ne va pas, they8217d rouler le code, le bug reste encore 8230 Minutes précieuses ont disparu. Peut-être 20 minutes au lieu de 45 minutes dans votre article. Donc, en bref 8211 leur catastrophe kill-switch est un déploiement de rétablissement de code dans un environnement en direct. Ce serait toujours une conception défectueuse. Ce qu'ils auraient besoin serait un grand commutateur rouge (presque littéralement, quelque part dans leur tableau de bord) pour s'arrêter immédiatement. Où est la règle d'entreprise qui dit 8220 tout d'abord ne pas nuire8221. VJ si le déploiement sur tous les serveurs avait fonctionné, ils auraient été ok. Mais dans ce cas, 7 sur 8 pour un sous-système ont été déployés correctement. Parce que le mauvais comportement, ils ont roulé les 7 autres pensant que le nouveau code dans ce sous-système était le problème. Cela a multiplié le problème jusqu'à ce que le commutateur tuer. Les catastrophes sont presque toujours complexes. Dans ce cas, il s'agissait de mauvaises pratiques de codage, plus pratiques d'inspection de code de test douteuses, plus une erreur dans le déploiement, plus un retour à la granularité du sous-système plutôt que le système entier. Si vous résolvez l'un de ces problèmes, vous n'obtiendrez pas un désastre. L'une des choses que j'ai vu dans les entreprises qui ne reconnaissent pas la véritable importance et l'impact de leurs systèmes informatiques est qu'elles ne fournissent pas de budget pour les mises à jour de code héritées. Par exemple: J'ai vu des situations où les TI n'ont pas de budget. Il doit justifier tout ce qu'il fait contre une dépense d'entreprise. Ce qui signifie constamment brouiller pour aligner de nouveaux projets. Les entreprises voient rarement la nécessité de mettre à jour les anciens logiciels qui fonctionnent actuellement, de sorte qu'ils refusent de payer pour cela. Le résultat est un nouveau code constant, réalisé par les codeurs les moins chers possibles, sans pour autant investir dans les technologies qui amélioreraient les performances et réduiraient les risques. Pourquoi Parce que ceux-ci sont considérés comme 8220IT problèmes8221 et non la portée de tout projet sur les gens de TI travaillent, de sorte que personne ne paiera pour cela. Une grande lecture au sujet de cette pratique est le projet Phoenix par Gene Kim, Kevin Behr et George Spafford. Merci d'avoir appliqué le cerveau à la hype. Probablement on devrait demander pourquoi les techniciens impliqués ont réussi à prendre le blâme, mais n'a pas obtenu l'autorité de tuer le commutateur sur leurs propres. Oh bien, c'est pourquoi vous avez mis OpsSRE en place de toute façon. 8220R8221 est pour responsable, appât de flamme d'aka. J'ai écrit un peu sur cet événement, et je voudrais avertir quiconque d'utiliser le rapport de la SEC comme quoi que ce soit autrement que pour ce que la SEC avait besoin de lui. Kitchensoap20131029counterfactuals-knight-capital Fascinant lire. J'ai travaillé dans une grande maison de ventes pour les fruits et les légumes une fois où une nouvelle version de logiciel a été installée et a échoué, menant aux pertes importantes aux commerçants (mais pas aussi massif que ceux-ci). Il s'agissait également d'un déploiement inapproprié et d'un repli. La leçon à apprendre est qu'il ya des domaines où l'ordinateur ne devrait pas prendre de décision sans validation humaine. Qu'en est-il des personnes qui ont perdu leur emploi parce que, oops, il y avait un bogue Qu'en est-il les autres entreprises qui peut-être entré en trubble en raison de changement soudain de la valeur de stock Automation de 8220high niveau decisions8221 doit être manipulé avec soin8230 Nice and educational post Btw. Utiliser le cadre Cynefin fournit une meilleure caractérisation de cette 8216DevOps8217 échec Ce poste semble avoir été écrit à partir d'une perspective DevOps. Les solutions suggérées sont compatibles avec une perspective de DevOps 8211 examiner le processus de libération, d'automatiser plus, et de concevoir un commutateur kill avec des capacités de récupération. Quelqu'un peut lire le message et mettre trop d'emphase sur le technicien Knight qui n'a pas copié l'ancien code à l'un des huit serveurs. Quelqu'un peut trop simplifier une relation de cause à effet. 8211 Augmenter la diversité pour analyser la situation et synthétiser de meilleures options 8211 Améliorer la communication entre les spécialités 8211 Améliorer la coordination implicite entre les spécialités 8211 Recruter des individus avec plus Expertise pour écrire et réviser le code Un facteur majeur qui a limité l'amélioration de la capacité de l'équipe de neuf ans avant l'événement de défaillance significatif a été mal caractériser le système. Dans un cadre Cynefin, confiner cette défaillance à un problème DevOps est d'associer le système avec le domaine 8220Obvious8221 où il ya des relations de cause à effet simples qui sont reconnaissables par 8216professionals.8217 L'échec ne doit pas être associée au domaine Cynefin 8220Complicated8221 où une analyse significative Par 8216specialists8217 aurait empêché l'échec. Le système doit être associé au domaine 8257Complex8221 de Cynefin 8211, un système adaptatif complexe. Le système est dispositionnel. Les mêmes conditions initiales ne produiront pas la même défaillance (sauf par accident). Pour plus d'informations sur Cynefin, visitez en. wikipedia. orgwikiCynefin et CognitiveEdge. J'apprécie que vous souligniez les facteurs tacites dans une telle catastrophe. Comme l'auteur, je travaille aussi dans les opérations, et il est facile de tomber dans les mêmes vieux modèles de pensée sur les causes et les solutions. J'apprécie particulièrement votre point de vue sur la diversité (qui se présente sous toutes les formes: niveau d'expérience, culture et formation, compétences, âge, etc.), car je pense que cela est un puissant moteur du succès de DevOps lui-même. Ayant une variété de perspectives, à la fois dans et sans votre équipe, en regardant votre projet a forte, le potentiel démontrable et peut aider à freiner les oublis tels que celui soulevé dans cet article. Gt pourquoi le code qui avait été mort pour 8 ans était encore présent dans la base de code est un mystère, mais thats pas le point Au contraire, that8217s exactement le point. Code avec des possibilités de configuration non utilisées et donc non testées est un désastre qui attend. C'est pourquoi I8217m est très sceptique quant aux approches basées sur le drapeau caractéristique. La configuration fait partie de votre programme comme le code est, et les changements de configuration doivent passer par le même cycle de vie 8211 demande de traction, examen de code, la libération, le déploiement à l'étagement 8211 comme toute autre modification. Si votre processus de libération est trop lourd et que vous devez apporter des modifications rapides à la production, corrigez votre processus de validation. Il y avait trop d'erreurs pour attribuer l'échec épique à Just DevOps (bien que je suis entièrement d'accord que l'automatisation et les tests est le seul moyen): 8211 Pas de travail d'équipe et des listes de contrôle tout en faisant une mise à jour sur les serveurs de production. Toute mise à jour sur la production doit exiger une équipe de surveiller les uns les autres, et en passant par une liste de contrôle. 8211 8 ans d'ancien code inutilisé en production. Cela vous dit beaucoup sur le manque de compréhension des risques de dangling 8220unused8221 code. 8211 Journalisation insuffisante du code et surveillance insuffisante du journal en temps réel, corrélation et analyse. Cela aurait déclenché assez d'indices tôt un aux ingénieurs et aux gens d'ops. 8211 Pas de basculement hot-hot vers un cluster avec la version précédente. Cela aurait arrêté toutes les questions après 1 ou 2 minutes. Si vous avez également été l'architecture des logiciels, des systèmes et des entreprises pendant une longue période, vous savez catastrophe se produit, vous savez que certains bugs ne sont capturés dans la nature et pas pendant les simulations, tout comme vous Savoir machines vont descendre. Vous devez vous préparer au pire des cas dans les deux scénarios. Murphy8217s La loi est si vrai dans notre monde I8217ve été dans ce qui est maintenant appelé l'espace 8220DevOps8221 pendant près de 20 ans, plus de la moitié de celui dans le monde financier. Knight était à la fois vendeur et concurrent de la société pour laquelle je travaille actuellement. L'automatisation du déploiement aurait pu vous aider. Peut être. Mais peu d'entreprises peuvent se permettre des environnements exactement dupliqués, et cela est essentiellement dû à des différences environnementales. Même la validation automatisée du déploiement n'aurait peut-être pas aidé dans ce cas si l'automation ne connaissait pas la différence environnementale. L'automatisation est seulement aussi bonne que la connaissance des gens qui la mettent en place. Si une installation manuelle n'était pas au courant de l'ancien système, alors il ya une bonne chance que le système automatisé n'aurait pas su vérifier non plus. L'automatisation d'un rollback n'est pas aussi bonne que la prise de décision quant à savoir si le roll back doit être effectué. Et si l'automatisation a par inadvertance démarré l'ancien système, il n'y a pas non plus de garantie que la commutation du système contemporain aurait arrêté l'ancien système 8211, vous pourriez avoir fini avec le même problème, même après un recul automatisé du système contemporain. Ce qui m'amène à un point final: L'automatisation est une exigence dans les grands, les environnements modernes. Mais une trop grande dépendance à cet égard peut conduire à ce que les personnes qui exploitent le système ignorent ce qu'elles font. L'automatisation est la plus utile pour les validations, car la validation des choses est effectuée correctement est fastidieuse et facile à minimiser lorsqu'elle est effectuée manuellement. Même lorsque l'automatisation, la mise en place de points d'arrêt impliquant des personnes ou des étapes guidées par l'homme, aident les opérateurs à connaître le système et son fonctionnement, améliorant considérablement leur capacité à résoudre les problèmes, à diagnostiquer les problèmes et à faire des suggestions appropriées sur les étapes à suivre. Arrêter ou atténuer un problème. L'automatisation est un outil, mais il ne s'agit que d'un seul outil et il lui faut encore un artisan pour le manipuler de façon appropriée. L'expertise est ce qui fait et maintient grands systèmes grands. Reblogué ceci sur Garrett S. Y. Hampton et commenté: Incroyable. Un problème technique qui a brièvement jeté des dizaines de stocks dans le chaos mercredi coûtera Knight Capital Group 440 millions, la firme commerciale a déclaré jeudi. Knights stock (KCG) a plongé pour un deuxième jour, effaçant 70 de sa valeur en deux jours. La compagnie a également indiqué qu'elle poursuit des manières de lever l'argent pour financer la dépense, levant des questions au sujet de la viabilité des entreprises. Le PDG de Knights, Thomas Joyce, est apparu en public pour la première fois jeudi pour défendre son entreprise après le désastre commercial. Vous ne pouvez pas empêcher les gens de faire des choses stupides, Joyce a déclaré dans une interview sur Bloomberg Television. C'est ce qui se produit lorsque vous avez une culture du risque. Depuis le glitch, le stock Knights est tombé à 2,86 de 10,33 mardi. Knight prend des ordres de courtiers comme ETrade et TD Ameritrade et les achemine vers les bourses où les actions sont échangées. Knight Capital Group a déclaré que le problème a été déclenché lors de l'installation de nouveaux logiciels de négociation, ce qui a conduit la société à envoyer de nombreuses commandes erronées dans 140 actions cotées à la Bourse de New York. Ces commandes ont été responsables de certaines fluctuations soudaines des cours des actions et de la hausse du volume des transactions peu de temps après l'ouverture mercredi du marché. Wizzard Software tourné au-dessus de 14 après la fermeture de la nuit précédente à 3,50, selon FactSet. Abercrombie amp Fitch a sauté 9 en quelques minutes, frappant 36.75 après la fermeture de la nuit avant à 33.80. Harley-Davidson est tombé soudainement 12, à 37.84 de 43.23. Le New York Stock Exchange a déclaré mercredi matin qu'il examinait des transactions inhabituelles dans environ 140 actions. Plus tard dans la journée, il a annulé des opérations de six plus petits stocks qui ont eu de larges oscillations, y compris Wizzard. Knight Capital a déclaré jeudi que le logiciel a été supprimé et que ses clients n'ont pas été touchés négativement. Pour les investisseurs, c'était la dernière décomposition des systèmes électroniques de plus en plus compliqués qui exploitent le marché boursier. Ces systèmes ont été montrant des signes de contrainte que plus de commerçants et les grandes entreprises d'investissement utilisent des ordinateurs puissants pour effectuer des opérations en fractions d'une seconde. Ces questions commerciales sont devenues si fréquentes que de nombreux experts croient avoir aidé à secouer la foi des investisseurs sur les marchés, surtout après les pertes profondes qu'ils ont subi pendant la crise financière et la récession qui a suivi. En conséquence, de nombreux petits investisseurs ont fui le marché boursier. Son parler au manque de confiance que les investisseurs de détail ont avec Wall Street, a dit Dave Abate, conseiller principal de richesse à des associés stratégiques de richesse à Seven Hills, Ohio. Les entreprises sont punis chaque fois qu'il ya un soupçon d'erreur ou une situation où le petit gars est peut-être profité. Je pense theres juste tolérance zéro pour cela. La dernière interruption a eu lieu en mai, lorsque des problèmes techniques sur le marché boursier Nasdaq ont entamé les débuts de Facebook comme une entreprise publique, empêchant certains investisseurs de savoir s'ils avaient acheté des actions ou être en mesure de les vendre. Le dysfonctionnement le plus visible et le plus chaotique a eu lieu en mai 2010, lorsque la moyenne industrielle Dow Jones a chuté de près de 600 points en cinq minutes, un événement surnommé le crash flash. Le problème à cette époque a également été attribué à des problèmes techniques. Dans les 26 mois depuis le flash crash, il ya eu des entrées d'argent des investisseurs de détail dans seulement six mois. Le total des sorties nettes d'argent sur cette période à partir des fonds d'actions était de 172 milliards, selon le consultant Stratégique Strategic Insight. Ce glitch est un embarras ironique pour Knights PDG Joyce, qui a publiquement critiqué Nasdaq pour les problèmes avec l'offre publique initiale Facebooks. Joyce, qui avait subi une chirurgie du genou mardi, est revenue travailler mercredi au chaos dans les marchés émanant de l'entreprise qu'il dirige. Jeudi, il a tenté de rassurer les investisseurs et de défendre les pratiques commerciales à grande vitesse. Ce problème de logiciel était un problème d'infrastructure, a déclaré Joyce à Bloomberg TV. Il n'a rien à voir avec nos modèles quantitatifs et n'a rien à voir avec nos modèles de marché. C'était quelque chose qui était distinct et distinct de la négociation. Droit d'auteur 2012 The Associated Press. Tous les droits sont réservés. Ce matériel ne peut être publié, diffusé, réécrit ou redistribué. Pour plus d'informations sur les autorisations d'ampli de réimpression. Visitez notre FAQ. Pour signaler les corrections et les clarifications, communiquez avec l'éditeur des normes Brent Jones. Pour la considération de publication dans le journal, envoyer des commentaires à lettersusatoday. Inclure votre nom, numéro de téléphone, ville et état aux fins de vérification. Pour voir nos corrections, allez à corrections. usatoday. Histoires les plus vues, galeries de photos et messages communautaires du jour


No comments:

Post a Comment