22/04/2024
Bambu Lab A1 Mini Combo : Une imprimante 3D accessible pour bien débuter
19:37 Publié dans Actualité, Imprimante 3D | Lien permanent | Commentaires (0) | |
Facebook | | |
16/04/2024
Le disque clé donc le SSD
Les disques SSD sont fabriqués par plusieurs entreprises à travers le monde, mais la production est principalement concentrée dans quelques pays clés. La Chine est un acteur majeur dans la fabrication de composants électroniques, y compris les disques SSD. Des entreprises chinoises telles que Huawei, Lenovo et Xiaomi ont investi dans la fabrication de SSD, et des fabricants de composants comme SK Hynix, Samsung et Micron ont également des installations de production en Chine. Taïwan est un centre important pour l'industrie des semi-conducteurs et du matériel informatique. Des entreprises taïwanaises telles que ASUS, Acer et Gigabyte sont impliquées dans la fabrication de SSD, et des sociétés de semi-conducteurs comme TSMC (Taiwan Semiconductor Manufacturing Company) produisent des puces de mémoire utilisées dans les SSD. La Corée du Sud abrite certaines des plus grandes entreprises de technologie au monde, notamment Samsung et SK Hynix, qui sont des fabricants majeurs de SSD et de composants de mémoire flash NAND. Les États-Unis qui rapatrient depuis un moment les industries de pointe de Taïwan vers leur territoire sont le siège de plusieurs grandes entreprises de technologie qui fabriquent des SSD, notamment Intel, Western Digital et Micron. Bien que la production réelle puisse être délocalisée dans d'autres pays, les États-Unis jouent un rôle important dans la conception, le développement et la commercialisation des SSD. Le Japon abrite également plusieurs fabricants de composants électroniques qui contribuent à la production de SSD, tels que Toshiba Memory (maintenant Kioxia) et Sony, bien que la part de marché japonaise puisse être légèrement inférieure à celle d'autres pays.
Les ventes de SSD (Solid State Drive) ont été en constante augmentation ces dernières années, tandis que les ventes de disques durs classiques ont connu une stagnation ou une légère baisse. En général, la tendance montre que les SSD gagnent en popularité au détriment des disques durs classiques. En termes de parts de marché, les SSD ont progressivement gagné du terrain, principalement en raison de leurs avantages en termes de performances, de fiabilité et de consommation d'énergie par rapport aux disques durs traditionnels. Toutefois, les disques durs classiques continuent d'être utilisés dans de nombreux cas, en particulier pour le stockage à grande échelle et ur une longue durée où le coût par gigaoctet reste un facteur important.
Le stockage SSD a une histoire qui remonte aux années 1950 et 1960, lorsque des chercheurs ont commencé à explorer des technologies de stockage de données alternatives aux disques magnétiques et aux bandes magnétiques alors utilisées. À cette époque, des mémoires à tores magnétiques et des tubes à mémoire ont été développés, mais ils étaient coûteux et peu pratiques pour un usage commercial généralisé.
L'avènement des semi-conducteurs dans les années 1970 a ouvert la voie à de nouvelles possibilités pour le stockage de données. Les premières incarnations de la mémoire flash, la technologie sous-jacente des SSD, ont commencé à émerger dans les années 1980. Ces premières mémoires flash étaient coûteuses, avaient une capacité limitée et étaient principalement utilisées dans des applications spécialisées telles que les appareils électroniques grand public et les équipements militaires.
Au fil des décennies suivantes, les technologies de mémoire flash ont évolué rapidement, conduisant à une augmentation de la densité, de la fiabilité et des performances. Les premiers SSD ont commencé à apparaître dans les années 1990, principalement pour des applications industrielles et militaires où leurs avantages en termes de résistance aux chocs, de faible consommation d'énergie et de vitesse de lecture/écriture étaient particulièrement précieux.
Dans les années 2000, les SSD ont commencé à pénétrer le marché grand public, bien que leur coût élevé les rende initialement inaccessibles à la plupart des consommateurs. Les premiers SSD grand public étaient souvent utilisés comme disques de démarrage ou de cache pour améliorer les performances des systèmes informatiques existants.
Au cours des dernières années, les SSD ont connu une adoption massive, principalement en raison de la réduction des coûts, de l'augmentation de la capacité de stockage et de l'amélioration continue des performances. Les SSD sont désormais disponibles dans une variété de formes, y compris les SSD SATA, les SSD NVMe (Non-Volatile Memory Express) et les SSD au format M.2, offrant des options pour répondre aux besoins de différents types d'applications, des ordinateurs de bureau aux centres de données en passant par les appareils mobiles.
Sur le plan purement technique l'évolution des SSD a été remarquable, avec des avancées constantes dans plusieurs domaines clés : Les fabricants de SSD ont réussi à augmenter considérablement la densité de stockage des puces de mémoire flash, permettant ainsi de produire des SSD de plus grande capacité sans augmenter de manière significative leur taille physique.
Les SSD actuels offrent des vitesses de lecture/écriture beaucoup plus rapides par rapport aux disques durs classiques, ce qui se traduit par des temps de démarrage plus courts, des temps de chargement des applications réduits et des performances globales plus fluides pour les systèmes informatiques. Un rêve pour son disque système mais aussi pour le joueur.
Les disques M.2, également connus sous le nom de SSD M.2, sont une forme de stockage SSD qui se distingue par son format compact et sa connexion directe à la carte mère d'un ordinateur via un connecteur M.2. Leur histoire remonte au début des années 2010, lorsque l'interface M.2 a été introduite pour remplacer les anciennes technologies de connecteur telles que mSATA et mini-PCIe, offrant une meilleure bande passante et une plus grande flexibilité de conception pour les appareils informatiques. L'interface M.2 a été introduite pour répondre aux besoins croissants en termes de performances, de capacité et de compacité des dispositifs de stockage SSD. Elle a été largement adoptée dans les ordinateurs portables, les ordinateurs de bureau et d'autres appareils informatiques en raison de sa taille réduite et de sa polyvalence. Les disques M.2 sont plus petits et plus fins que les SSD traditionnels au format 2,5 pouces, ce qui les rend idéaux pour les appareils compacts tels que les ordinateurs portables ultraplats et les mini-PC. Les disques M.2 se connectent directement à un connecteur M.2 sur la carte mère de l'ordinateur, éliminant ainsi le besoin de câbles SATA supplémentaires et permettant des vitesses de transfert de données plus rapides.
Performances améliorées : En raison de leur connexion directe à la carte mère et de l'utilisation de l'interface PCIe (PCI Express) ou NVMe (Non-Volatile Memory Express), les disques M.2 offrent généralement des performances supérieures en termes de vitesse de lecture/écriture par rapport aux SSD SATA traditionnels. Cela se traduit par des temps de démarrage plus rapides, des chargements d'applications plus rapides et une meilleure réactivité du système. Les disques M.2 utilisent souvent des puces de mémoire flash NAND de haute qualité, ce qui contribue à une durée de vie prolongée et à une fiabilité accrue par rapport à certains SSD économiques. Cependant, il est important de noter que la durée de vie d'un SSD dépend de plusieurs facteurs, notamment de la qualité des composants, de la charge de travail et des conditions d'utilisation. Les disques M.2 étaient initialement plus coûteux que les SSD SATA traditionnels en raison de leur technologie plus récente et de leur performance supérieure. Cependant, avec l'augmentation de la production et l'amélioration des processus de fabrication, les prix des disques M.2 sont devenus de plus en plus compétitifs. Dans de nombreux cas, les disques M.2 offrent un excellent rapport performances/prix par rapport aux SSD SATA, surtout si l'on considère les avantages en termes de performances. En résumé, les disques M.2 offrent une solution de stockage SSD compacte, performante et polyvalente, idéale pour une variété d'applications, des ordinateurs portables ultraplats aux ordinateurs de bureau hautes performances. Avec leurs avantages en termes de performances, de durée de vie et de compacité, les disques M.2 continuent de gagner en popularité sur le marché du stockage informatique.
Les technologies de mémoire flash ont considérablement progressé en termes de durée de vie et de résistance à l'usure, réduisant ainsi les préoccupations initiales concernant la durabilité des SSD par rapport aux disques durs.
En outre, les SSD consomment généralement bien moins d'énergie que les disques durs, ce qui en fait une option attrayante pour les appareils mobiles et les systèmes nécessitant une efficacité énergétique élevée.
L'introduction de l'interface NVMe a permis d'exploiter pleinement le potentiel des SSD en réduisant les goulots d'étranglement et en augmentant la bande passante disponible pour les transferts de données.
La fabrication des SS chez Crucial,, une marqui a fait ses preuves et appréciée pour les transferts de disque C sur un nouveau support sans réinstallation.
L'avenir des SSD semble donc prometteur, avec des perspectives technologiques et commerciales intéressantes. Les SSD seront probablement de plus en plus utilisés dans des domaines tels que l'intelligence artificielle, l'informatique en nuage, l'Internet des objets (IoT) et le stockage d'entreprise, où les performances, la fiabilité et la réactivité sont essentielles.
Bien que les SSD soient devenus beaucoup plus abordables au fil des ans, il reste encore de la place pour une réduction continue des coûts grâce à des avancées technologiques et à des économies d'échelle et là encore le consommateur jeune et/ou à petit budget ne va pas s'en pleindre. Il devient classique de remplacer un discque C de 128Go par un 500Go sur son nouveau PC pour un même coût.
Il existe cependant plusieurs technologies émergentes qui pourraient éventuellement concurrencer les disques durs et les SSD dans un avenir proche. Certaines de ces technologies sont encore au stade de la recherche ou du développement initial, tandis que d'autres commencent à apparaître sur le marché mais n'ont pas encore atteint une adoption généralisée. Voici quelques-unes de ces technologies :
Stockage à base de pure mémoire vive (RAM) en complément du cloud : Les mémoires RAM offrent des vitesses de lecture et d'écriture extrêmement rapides, mais elles sont volatiles, ce qui signifie qu'elles perdent leurs données lorsque l'alimentation est coupée. Des entreprises travaillent sur des solutions pour rendre la mémoire RAM non volatile, permettant ainsi son utilisation comme dispositif de stockage. Cependant, les coûts élevés et les limitations de capacité restent des défis à surmonter.
Il y a aussi le projet de la technologie de stockage photonique. Cette technologie utilise des photons au lieu d'électrons pour stocker et transférer des données. Les dispositifs de stockage photonique pourraient potentiellement offrir des vitesses de transfert de données beaucoup plus rapides que les SSD actuels, tout en consommant moins d'énergie. Cependant, le développement de cette technologie est encore à un stade précoce.
Le stockage holographique fréquent dans le livre ou le film de science fiction utilise des hologrammes pour enregistrer des données dans un matériau photosensible. Cette technologie offre des avantages potentiels en termes de densité de stockage et de durabilité, mais elle est encore largement expérimentale.
La mémoire à changement de phase (PCM) : Les dispositifs de stockage à mémoire à changement de phase utilisent des matériaux qui peuvent changer d'état de manière réversible entre des phases cristallines et amorphes pour stocker des données. Cette technologie offre des vitesses de lecture et d'écriture élevées ainsi qu'une grande longévité, mais son coût reste un défi à surmonter pour une adoption généralisée.
Dans le futur, le stockage quantique : Les ordinateurs quantiques pourraient éventuellement offrir des capacités de stockage et de traitement révolutionnaires, mais ils sont encore au stade de la recherche fondamentale et il faudra probablement plusieurs années avant qu'ils ne deviennent commercialement viables pour le stockage de données conventionnel.
Ces technologies et d'autres encore sont étudiées et développées dans le but de créer des solutions de stockage plus rapides, plus fiables et plus efficaces que les disques durs et les SSD actuels. Bien que certaines de ces technologies présentent un potentiel prometteur, il est difficile de prédire avec certitude laquelle ou lesquelles émergeront comme les principales concurrentes des disques durs et des SSD dans un avenir proche.
10:26 Publié dans Actualité | Lien permanent | Commentaires (0) | |
Facebook | | |
19/02/2024
Windows hier, aujourd'hui et demain (2/2)
Pour installer Windows 11, on a déjà exigé des utilisateurs la présence d'une puce TMP 2.0 sous le prétexte déjà menteur de renforcer la sécurité du système. Le TPM est un composant cryptographique matériel intégré sur la carte mère de votre PC qui sert à stocker et à génerer de manière sécurisée des clés de chiffrement. Mais Microsoft semble vouloir aller encore plus loin pour vous faire dépenser inutilement de l'argent en pleine récession. Mais pendant qu'on parle de ses problèmes informatiques, on parle moins de l'affaire de renseignement Epstein.
C'est la crise et dès Windows 11, Microsoft a décidé d'accéler la sortie des nouvelles versions de Windows. Il s'agit ouvertement de satisfaire les constructeurs et de faire les poches des clients encore solvables. Pour aller plus loin, il s'agit avec Windows 11 24H2 en cas de non prise en charge POPCNT de bloquer le démarrarge sans contournement possible. L'instruction impose en effet un processeur prenant en charge SSE4. 2 ou SSE4a.
Adieu donc aux Intel et AMD anciens. Intel prend en compte SSE4.2 dans les processeurs Intel Nehalem core depuis la fin de 2008. AMD a ajouté cette prise en charge fin de 2011. Mais des quantités de processeurs plus anciens ont continué à être vendus.
Jusqu'à la version 25905 de Windows 11, les machines dotées de ces anciens processeurs et largement suffisantes pour les besoins de millions d'utilisateurs exécutaient Windows 11. Les utilisateurs devraient certes contourner les autres exigences matérielles du système d'exploitation pour que le système d'exploitation s'installe, mais avec un peu de connaissances cette toxique obsolescence imposée pouvait être contournée, ça marchait.
Avec Windows 11 version 24H2 sera disponible, le couperet tombe. Comme il n'y a pas de contournement, car cette fonctionnalité est requise l'ensemble de ces systèmes Windows 11 devront rester confiné par idéologie marchande sous Windows 11 version 23H2.
Au delà de cette tendance, une évolution du nouveau Windows 12 attendu entre juin et octobreserait la refonte de ses couches les plus basses pour moderniser le système et là encore, renforcer sa sécurité. La mise à jour de Windows Core OS serait baptisée CorePC ( noyau du système ainsi que les pilotes et les API ).
Tournant le dos à son projet précédent d'un même OS sur toutes les manchines (PC, tablette, smartphone, console..), Microsoft opterait pour un OS modulaire, personnalisé selon chaque appareil. On peut ainsi envisager un OS sans win32, simple navigateur, interface de borne, menu marchand avec seulement l’accès à Microsoft Edge ou au Microsoft Store..
On évoque aussi une installation simplifiée des mises à jour, ce qui ne manquera pas d'inquiéter ceux qui subissent cette fonction désastreuse pouvant parfois installer un pilote d'imprimante sur une carte réseau.
Autre nuisance, encourager le PC Game Pass serait au menu. Windows 12 devrait s’inspirer des fonctions de la Xbox ( bonjour la régression ! ). On pourrait voir débarquer Quick Resume, la fonction qui permet de mettre en veille et de reprendre des jeux quasi instantanément sur Xbox. Est-ce vraiment ce qu'on demande à un OS ? De qui se moque t-on ?
Toujours dans le secteur loisir, il faut se préparer à une mise à jour majeure pour DirectX ( il faut bien contraindre à l'achat) pouvant intégrer une API standard de supersampling comme AMD FSR, Nvidia DLSS et Intel XeSS. Enfin pour le coté gadget, des fonds d’écran générés par IA, pourraient émerveiller les naïfs.
Pour la première fois depuis près de 30 ans, la société américaine Microsoft va changer le clavier standard en ajoutant une touche qui lance Microsoft Copilot, l'assistant IA de l'entreprise. Cela a été annoncé le 4 janvier par le vice-président exécutif et directeur marketing de la société, Yusuf Mehdi. Car l'IA va être l'argument central donc purement marketing condamnant Windows 10 et 11.
Cela remplacera la touche Ctrl droit. Cependant, sur les claviers plus grands, Copilot sera placé à côté du Ctrl droit. Les millions d'utilisateurs gauchers en entreprise avec un clavier standard vont devoir souffrir.
L'introduction de la touche Copilot marque le premier changement significatif apporté au clavier depuis près de trois décennies. Cela facilitera non seulement l’utilisation des ordinateurs par les utilisateurs, mais augmentera également leur efficacité, faisant de 2024 l’année du PC doté de l’intelligence artificielle. Copilot deviendra le point d'entrée dans le monde de l'intelligence artificielle, a déclaré le vice-président sur le portail Microsoft. Ddans l'éditeur de texte Word, la fonction vous aidera à écrire ou à modifier du texte, et dans PowerPoint, elle vous aidera à transformer des documents texte en présentations ou à créer de nouveaux diaporamas basés sur des idées. Mehdi a déclaré que les premiers ordinateurs dotés de la touche Copilot sur le clavier seront disponibles au début du printemps 2024, ce qui confirme la prochaine sortie de l'OS.
En attendant le lancement de Windows 12, il sera possible de tester les nouveautés du système en beta. Pour cela, il faut s’inscrire au programme Windows Insider et utiliser le canal Canary que Microsoft a lancé à dessein pour l’occasion.
Le Canary Channel est ce moyen disponible sur votre page Windows update de recevoir des builds Windows Insider contenant de nouvelles fonctionnalités destinées à être testées mais pas nécessairement présente dans l'OS final. au delà des nouvelles fonctionnalités, les builds Canary incluront ces fameuses modifications majeures du noyau Windows et les nouvelles API (Application Programming Interface). C’est pourquoi Microsoft recommande que seuls les « utilisateurs hautement techniques » s’y inscrivent. Contrairement aux autres canaux Insider, Microsoft fournira une documentation minimle sur ce qui est inclus dans les builds..
11:02 Publié dans Actualité | Lien permanent | Commentaires (0) | |
Facebook | | |
14/02/2024
Asus TUF Gaming A17 TUF707NVR-HX011W: Portable de loisir
11:29 Publié dans Actualité, Portable | Lien permanent | Commentaires (0) | |
Facebook | | |